Escolar Documentos
Profissional Documentos
Cultura Documentos
1
2.3.3 Variáveis aleatórias do tipo misto . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.4 DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES . . . . . . . . . . . . . . . . . 49
2.4.1 Função conjunta de distribuição cumulativa de probabilidades . . . . . . . . . . 49
2.4.2 Função conjunta de densidades de probabilidades . . . . . . . . . . . . . . . . . 49
2.4.3 Conteúdo de probabilidade para um domínio D qualquer . . . . . . . . . . . . 50
2.4.4 Funções marginais de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 50
2.4.5 Funções condicionais de probabilidades . . . . . . . . . . . . . . . . . . . . . . . 50
2.4.6 Teorema da probabilidade total (versão contínua) . . . . . . . . . . . . . . . . . 52
2.4.7 Variáveis aleatórias independentes . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4.8 Covariância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4.9 *Momentos conjuntos de ordem arbitrária de duas v.a. . . . . . . . . . . . . . . 53
2.4.10 Problemas envolvendo muitas variáveis aleatórias . . . . . . . . . . . . . . . . . 54
2.5 FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA . . . . . . . . . . . . . . . . . . . . . 55
2.5.1 Conceito de função de uma variável aleatória . . . . . . . . . . . . . . . . . . . 55
2.5.2 Determinação da função de distribuição de Y = g(X) . . . . . . . . . . . . . . 55
2.5.3 Momentos de uma função de uma variável aleatória . . . . . . . . . . . . . . . 57
2.6 FUNÇÕES DE DUAS OU MAIS VARIÁVEIS ALEATÓRIAS . . . . . . . . . . . . . 59
2.6.1 Determinação da função de distribuição . . . . . . . . . . . . . . . . . . . . . . 59
2.6.2 Soma de duas variáveis aleatórias . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.6.3 Teorema do limite central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.6.4 Momentos de funções de muitas variáveis aleatórias . . . . . . . . . . . . . . . 63
2.6.5 Aproximação dos momentos de funções de muitas variáveis aleatórias . . . . . 64
2.7 TEORIA DE VALORES EXTREMOS . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.7.1 Distribuições exatas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.7.2 Distribuições assintóticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.7.3 Extremos característicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.7.4 Distribuições estatísticas de extremos . . . . . . . . . . . . . . . . . . . . . . . 69
2.7.5 Sumário de distribuições contínuas . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.8 AJUSTE DE DISTRIBUIÇÕES ESTATÍSTICAS . . . . . . . . . . . . . . . . . . . . . 74
2.8.1 Ajuste a um histograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.8.2 Ajuste a pontos determinados numericamente . . . . . . . . . . . . . . . . . . . 75
2.9 DICAS DE PROGRAMAÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.9.1 Uso de estruturas de dados para representar variáveis aleatórias . . . . . . . . . 76
2.9.2 Programação da função normal padrão acumulada . . . . . . . . . . . . . . . . 76
2
3.3 MEDIDAS DE VIOLAÇÃO DE ESTADOS LIMITES . . . . . . . . . . . . . . . . . . 81
3.3.1 Coeficiente de segurança central . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.3.2 Coeficientes de segurança parciais e valores característicos . . . . . . . . . . . . 81
3.3.3 Medidas probabilísticas de violação de estados limites . . . . . . . . . . . . . . 83
3.4 FORMULAÇÃO DOS PROBLEMAS DE CONFIABILIDADE ESTRUTURAL . . . . 85
3.4.1 Carregamento estrutural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.4.2 Resistência estrutural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.4.3 Nível da análise de estado limite . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.4.4 O papel do parâmetro tempo em problemas de confiabilidade estrutural . . . . 87
3.5 PROBLEMA DE CONFIABILIDADE DEPENDENTE DO TEMPO . . . . . . . . . 88
3.6 PROBLEMA DE CONFIABILIDADE INDEPENDENTE DO TEMPO . . . . . . . . 89
3.7 Programas de confiabilidade estrutural existentes . . . . . . . . . . . . . . . . . . . . . 90
3.8 FIGURAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4 MÉTODOS DE TRANSFORMAÇÃO 97
4.1 FOSM - MÉTODO DE PRIMEIRA ORDEM E SEGUNDO MOMENTO . . . . . . . 97
4.1.1 A transformação de Hassofer e Lind . . . . . . . . . . . . . . . . . . . . . . . . 97
4.1.2 Interpretação geométrica do índice de confiabilidade . . . . . . . . . . . . . . . 98
4.1.3 O ponto de projeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.4 Equação de estado limite linear . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.5 Equação de estado limite não-linear . . . . . . . . . . . . . . . . . . . . . . . . 100
4.1.6 Solução numérica do problema de otimização . . . . . . . . . . . . . . . . . . . 102
4.1.7 Análise de sensibilidade da probabilidade de falha . . . . . . . . . . . . . . . . 105
4.1.8 Transformação de Hassofer-Lind matricial . . . . . . . . . . . . . . . . . . . . . 105
4.1.9 Algoritmo FOSM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.1.10 Variáveis aleatórias correlacionadas . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.2 FORM - MÉTODO DE CONFIABILIDADE DE PRIMEIRA ORDEM . . . . . . . . 108
4.2.1 Distribuição conjunta de probabilidades . . . . . . . . . . . . . . . . . . . . . . 108
4.2.2 A transformação de Rosenblatt . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.2.3 Transformação composta utilizando o modelo de Nataf . . . . . . . . . . . . . . 109
4.2.4 Algoritmo FORM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.3 SORM - MÉTODO DE CONFIABILIDADE DE SEGUNDA ORDEM . . . . . . . . . 115
4.3.1 Aproximação parabólica baseada em curvaturas . . . . . . . . . . . . . . . . . . 115
4.3.2 Aproximação parabólica baseada em pontos . . . . . . . . . . . . . . . . . . . . 116
4.4 Figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3
5.1.3 Associação mista de componentes . . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.2 IDEALIZAÇÃO DE SISTEMAS ESTRUTURAIS . . . . . . . . . . . . . . . . . . . . 123
5.2.1 Modelos de resistência de material . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.2.2 Estruturas isostáticas - sistemas em série . . . . . . . . . . . . . . . . . . . . . 124
5.2.3 Estruturas hiper-estáticas - sistemas em paralelo . . . . . . . . . . . . . . . . . 124
5.3 MÚLTIPLOS MODOS DE FALHA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
5.3.1 Limites para a probabilidade de falha de sistemas em série . . . . . . . . . . . . 126
5.3.2 Aproximação de primeira ordem para múltiplos modos de falha . . . . . . . . . 127
5.4 SISTEMAS ESTRUTURAIS COMPLEXOS . . . . . . . . . . . . . . . . . . . . . . . . 129
5.4.1 Árvore de falhas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.4.2 Árvore de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.5 Figuras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4
7.2.3 Ortogonalidade e independência . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.2.4 Processo Gaussiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.2.5 Estacionariedade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.2.6 Função de auto-correlação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.2.7 Função densidade espectral de potência . . . . . . . . . . . . . . . . . . . . . . 152
7.2.8 Estatísticas temporais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
7.2.9 Processos ergódicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
7.3 CÁLCULO DE PROCESSOS ESTOCÁSTICOS . . . . . . . . . . . . . . . . . . . . . 154
7.3.1 Continuidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7.3.2 Diferenciação em média quadrática . . . . . . . . . . . . . . . . . . . . . . . . . 154
7.3.3 Integração quadrática média . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7.4 ESTATÍSTICAS DE BARREIRA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
7.4.1 Período médio de recorrência ou tempo médio de retorno . . . . . . . . . . . . 155
7.4.2 Taxa de passagens pela barreira . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
7.5 TEORIA DE VALORES EXTREMOS (p.e.) . . . . . . . . . . . . . . . . . . . . . . . 159
7.5.1 Extremos de um processo em um intervalo fixo . . . . . . . . . . . . . . . . . . 159
7.5.2 Distribuição de picos de um processo estocástico . . . . . . . . . . . . . . . . . 159
7.5.3 Distribuição de picos de um processo Gaussiano . . . . . . . . . . . . . . . . . 160
7.5.4 Distribuição de extremos de um processo Gaussiano . . . . . . . . . . . . . . . 160
7.6 PROCESSOS DISCRETOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
7.6.1 Processo de Borges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
7.6.2 Processo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
7.6.3 Processo de Poisson filtrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
7.6.4 Processos de Poisson mixtos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
7.7 FIGURAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
5
8.3.7 Melhorias da aproximação de Poisson . . . . . . . . . . . . . . . . . . . . . . . 176
8.4 VARIÁVEIS ALEATÓRIAS DE RESISTÊNCIA . . . . . . . . . . . . . . . . . . . . . 177
8.4.1 Teorema de probabilidade total . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
8.4.2 Integração rápida de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 178
8.4.3 Aproximação da taxa de passagens média pelo envelope . . . . . . . . . . . . . 179
8.5 COMBINAÇÃO DE CARREGAMENTOS . . . . . . . . . . . . . . . . . . . . . . . . 180
8.5.1 Caso geral (Point-crossing formula) . . . . . . . . . . . . . . . . . . . . . . . . 180
8.5.2 Combinação de carregamentos discretos . . . . . . . . . . . . . . . . . . . . . . 181
8.5.3 Regra de Turkstra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
8.6 PROBLEMAS MULTI-DIMENSIONAIS . . . . . . . . . . . . . . . . . . . . . . . . . . 184
8.6.1 Nested FORM/SORM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.6.2 Directional simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.6.3 Computation of crossing rates by parallel system sensitivity analysis . . . . . . 186
8.7 FIGURAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
6
Lista de Figuras
7
3-10 Problema de confiabilidade estrutural típico envolvendo carregamento estocástico e vari-
ação da resistência no tempo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3-11 Problema de confiabilidade estrutural com variação paramétrica da resistência. . . . . 94
3-12 Níveis de análise em que a comparação solicitação x resistência pode ser feita. . . . . . 95
7-1 Funções de auto-correla ção comuns e densidades espectrais de potência (ajustadas para
área unitaria) correspondentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
7-2 Funções de auto-correla ção comuns e densidades espectrais de potência (ajustadas para
área unitaria) correspondentes (continuação). . . . . . . . . . . . . . . . . . . . . . . . 165
7-3 Ultrapassagem da barreira b(t) = b pelo processo estocástico X(t). . . . . . . . . . . . 166
7-4 Composição do tempo de recorrência entre visitas do processo X(t) ao nível b. . . . . 166
7-5 Condição de ultrapassagem da barreira b(t) = b pelo processso X(t). . . . . . . . . . . 166
7-6 Limites de integração da taxa de passagens pela barreira no plano (x, ẋ). . . . . . . . . 167
7-7 Função de densidade de um pico (máximo local) de processo Gaussiano. . . . . . . . . 167
7-8 Distribuição de valores extremos de um processo Gaussiano em função do número de
ciclos n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7-9 Realizações de processo discreto mixto, com p = 0.2 e q = 0.8. . . . . . . . . . . . . . . 168
7-10 Realizações de processo discreto mixto, com p = 0.8 e q = 0.2. . . . . . . . . . . . . . . 168
8
8-3 Passagens de barreira em bloco característica de processos estocásticos de banda estreita.190
8-4 Problema de confiabilidade estrutural com variação paramétrica da resistência. . . . . 190
8-5 Parallel system computation of crossing rates. . . . . . . . . . . . . . . . . . . . . . . . 190
8-6 Quadro rigido-perfeitamente plástico com multiplos modos de falha. . . . . . . . . . . 191
8-7 Crossing rate results as a function of resistance parameters for ideal rigid-plastic frame
problem. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
8-8 Predicted ECR error for individual failure surfaces of ideal rigid-plastic frame problem 191
9-1 Índices de confiabilidade da norma antiga para combinação de ações gravitacionais. . . 199
9-2 Índices de confiabilidade da norma antiga para combinação de ações gravitacionais e
vento. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
9-3 Fatores de segurança parciais para atingir β alvo = 2.5, vigas de aço. . . . . . . . . . . . 200
9-4 Fatores de segurança parciais para atingir β alvo = 2.5, vigas de concreto armado. . . . 200
9-5 Índices de confiabilidade da nova norma para os fatores de segurança parciais propostos.201
9
10
Lista de Abreviaturas
11
12
Lista de Símbolos
Variáveis Aleatórias:
X Variável Aleatória
x realização da variável aleatória X
µX média de X
σX Desvio-padrão de X
σ 2X Variância de X
fX (x) Função densidade de probabilidades de X
FX (x) Função de probabilidades acumuladas X
Distribuições estatísticas:
13
Confiabilidade independente do tempo:
υ+
X (a, t) Taxa na qual o processo X(t) ultrapassa a barreira a(t)
(taxa de passagens pela barreira)
υ+
A (a, t) Taxa de passagens pela barreira do processo amplitude
υ+
D (x, t) Taxa de entradas no domínio de falha
14
Capítulo 1
RISCO EM SISTEMAS DE
ENGENHARIA
A incerteza física corresponde à aleatoriedade natural dos fenômenos físicos, quimicos, biológicos,
atmosféricos que nos rodeiam, e que afetam o comportamento de sistemas de engenharia. Exemplos
de processos com incerteza física:
4. variação na resistência de materiais estruturais (dentro de um mesmo lote, entre lotes, entre
diferentes fabricantes, etc.);
8. e tantas outras...
A incerteza física pode ser reduzida através da coleta de mais informações sobre os fenômenos
envolvidos, mas não pode ser eliminada. A incerteza nas dimensões de componentes ou na resistência
de materiais pode ser diminuída através de melhorias em controle de qualidade, mas também não pode
ser eliminada. A incerteza física pode ser representada e incorporada na análise através de variáveis
aleatórias, processos estocásticos e campos estocásticos.
15
Incerteza de previsão
Este tipo de incerteza se refere à previsão de condições futuras de um processo ou sistema. Muitas
vezes, a informação disponível sobre determinado processo é limitadas a um curto período, mas deve
ser extrapolada para o período de vida útil da estrutura. Extremos de fenômenos ambientais são
exemplos típicos.
Durante as fases de projeto e de construção de uma obra, existem grandes incertezas em relação
à resistência dos materiais estruturais e em relação aos carregamentos que realmente atuarão na
estrutura quando em operação. Obviamente, à medida que estas informações vão sendo coletadas,
este tipo de incerteza pode ser reduzida ou até eliminada. No entanto, os projetos estruturais são
feitos anteriormente, e portanto devem levar em conta a existência destas incertezas.
Incerteza fenomenológica
A incerteza fenomenológica se refere a fenômenos inimagináveis para o projetista de uma estrutura,
mas que vem a afetar a segurança desta ou levar à condição de falha. Em especial, a incerteza
fenomenológica pode aparecer em projetos inovadores, para os quais novos e inimagináveis modos de
falha podem existir.
Um exemplo de falha estrutural atribuída à incerteza fenomenológica foi o colapso da ponte Tacoma
Narrows, no Japão, em 1940. Esta ponte suspensa caiu devido à excitação dinâmica provocada pelo
vento, um efeito aparentemente inimaginável para os projetistas da mesma.
Outro exemplo mais recente é a queda dos prédios do World Trade Center, ocorrida nos ataques
terroristas de 11 de setembro de 2001. O evento inimaginável, neste caso, não foi o choque dos
aviões (ou a loucura dos terroristas), uma vez que as torres foram projetadas para resistir ao choque
de pequenas aeronaves (e chegaram a resistor ao choque dos enormes jumbos). A falha estrutural
das torres é atribuída ao incêndio de proporções inimagináveis (aos projetistas) que se seguiu ao
choque dos aviões seqüestrados. As torres haviam sido projetadas para resistir a incêndios típicos
de escritório (divisórias, móveis, papéis). No entanto, o fornidável incêndio provocado pela queima
da gasolina carregada pelos aviões seqüestrados atingiu temperaturas muito maiores, eventualmente
levando ao colapso da ligação metálica entre as lajes de concreto e a estrutura metálica externa. Os
prédios ruíram devido à falha destas conexões.
Devido ao seu carácter inimaginável, as incertezas fenomenológicas não podem ser incorporadas
na análise. Em verdade, elas só se manifestam quando já é muito tarde.
Incerteza de decisão
A incerteza de decisão está relacionada com a definição sobre se determinado evento ocorreu ou não.
Os estados limites de serviço, por exemplo, não possuem uma fronteira bem definida. No entanto, o
uso de equações de estado limite requer a definição de uma fronteira clara entre os estados de falha
e não falha. Nestes casos, convém utilizar funções de utilidade, para formular de maneira gradual a
transição entre uma condição aceitável e a falha de serviço.
16
Incerteza de modelo
Incertezas de modelo tem sua origem na representação do comportamento estrutural através de mode-
los simplificados. Quando determinamos a resistência de um elemento de concreto armado em função
das resistências do aço, do concreto, e das dimensões do elemento, introduzimos um erro de modelo.
A incerteza de modelo pode ser representada através de uma variável aleatória, e sua distribuição de
probabilidades pode ser determinada, por exemplo, realizando comparações entre ensaios experimen-
tais e a resistência determinada via modelo.
1.3 RISCO
1.3.1 Definição de risco
O risco associado a um determinado evento ou atividade pode ser definido como o produto da prob-
abilidade de ocorrência do evento (ou freqüência) pelas consequências da ocorrência do mesmo:
17
valor especificado em apólice. Esta discussão não envolve apenas administradores ou técnicos, mas a
sociedade como um todo. Por isto, não será levada adiante. Neste curso, limitaremos a discussão à
avaliação quantitativa da probabilidade de ocorrência P [ei ]. Para o aluno que estiver interessado na
questão, recomenda-se Cameron (2000).
Risco também pode ser definido como Probabilidade de Dano. Em palavras:
Gravidade do evento:
1. Evento minoritário: Impacto inicialmente limitado à pequena área no local do evento com
potencial para conseqüências maiores na falta de ação corretiva.
3. Evento grave: Evento cinco ou dez vezes maior do que um evento sério.
18
Probabilidade de ocorrência do evento (f = falhas/ano):
1. Baixa (f < 10−4 /ano): Uma falha ou série de falhas com muito pequena probabilidade de
ocorrência dentro da vida projetada da planta. Exemplo:
2. Moderada (10−4 < f < 10−2 /ano): Uma falha ou série de falhas com pequena probabilidade de
ocorrência dentro da vida projetada da planta. Exemplo:
3. Alta (f > 10−2 /ano): Pode-se esperar que uma falha aconteça durante dentro da vida projetada
da planta. Exemplo:
(a) Vazamentos;
(b) Falha individual de um instrumento ou de um componente;
(c) Erro humano que resulta em vazamento de material.
Classificação do risco:
1. Região de alto risco: o risco nesta faixa provavelmente é inaceitável e deve ser eliminado ou
atenuado;
2. Risco moderado: os riscos devem ser controlados e, se possível, eliminados. Estratégias de
redução de riscos devem ser estudadas, incluindo a sua relação custo-benefício. Riscos devem
ser reduzidos sempre que estiverem acima da linha de riscos toleráveis;
3. Região de baixo risco: estes riscos provavelmente são aceitáveis e continuarão assim mesmo que
o nível de riscos tolerável seja reduzido. A localização desta zona depende do que o público,
governo e empregados entendem como aceitável ou tolerável.
O custo esperado de falha, que está diretamente associado ao risco, vem a ser o produto do custo
de falha pela probabilidade de falha:
Conforme comentado anteriormente, o custo de falha pode incluir o custo de reparo ou de substi-
tuição dos equipamentos danificados, custo de reconstrução do sistema, custo de indenizações pagas a
funcionários e terceiros em decorrência da falha, e outros custos menos mensuráveis. O custo esperado
total de operação deste sistema é dado pela soma dos custos parciais:
custo total esperado = custo inicial + custo operação + custo esperado de falha
A figura (1-10) ilustra como estes custos variam em função do nível de controle ou do nível de
segurança utilizado na construção e operação de um sistema hipotético. Observe que o custo inicial e
o custo de operação aumentam com o nível de controle ou de segurança utilizado, porque o aumento
19
da segurança exige mais equipamentos de segurança, maior redundância de equipamentos críticos,
maior conservadorismo na utilização do sistema, maiores gastos em manutenção. O custo esperado
de falha, obviamente, diminue com o aumento da segurança e do nível de controle do sistema, pois
a probabilidade de falha diminue. No entanto, isto não acontece de maneira proporcional, isto é, a
partir de um determinado nível de controle ou segurança o custo esperado de falha já não se reduz de
maneira significativa. Este é um comportamento típico de sistemas de engenharia.
Observe que a função custo total versus nível de controle ou segurança possui um mínimo, que
corresponde ao nível de controle ou de segurança ideal para determinado sistema. Este nível de
segurança ideal minimiza o custo esperado total, ou seja, maximiza o retorno obtido com a utilização
do sistema. Observe que a determinação do nível de segurança e controle ideal exige uma análise
quantitativa de riscos. Este é o objetivo deste curso.
1.4 FIGURAS
fX(x1,t) fX(x2)
x1(t)
fX(x3)
x2
t
x3
fG(g,t)
Pf = P min g ( x , t ) < 0
t
70 70
Mortalidade
60 Expectativa de Vida 60
Mortes por mil habitantes
50 50
40 40
30 30
20 20
10 10
0 0
0 10 20 30 40 50 60 70 80
Idade
Figura 1-2: Taxa de Mortalidade e expectativa de vida por idade — população Brasileira, IBGE 2002.
20
ATIVIDADE RISCO DE
MORTE (por milhão
x ano)
Riscos Voluntários (média entre os praticantes)
Mineração 300
Construçao civil 150 – 440
Indústria 40
Riscos de transporte (média entre viajantes)
Rodoviário 145
Ferroviário 30
Aéreo 10
Riscos para toda a população
21
ATIVIDADE Taxa de Mortalidade Exposição Típica Risco de Morte
(10-9 mortes/hora) (horas/ano) (10-6 mortes/ano)
Viagem Aérea 1200 20 24
Viagem Rodoviária 700 300 200
Viagem de Trem 80 200 15
Figura 1-4: Risco individual em mortes por ano e por kilômetro rodado para viagens.
Figura 1-5: Risco individual de mortes/lesão por acidente de trânsito no Brasil. (Fonte:Anuário
Estatístico de Acidentes de Trânsito de 2002 — DENATRAN).
22
1.E-02
1.E-04
Freqüencia de acidentes
(N mortes por ano)
1.E-06
1.E-08
1.E-10
1 10 100 1000 10000
Numero de fatalidades (N)
23
Figura 1-8: Mapa de suscetibilidade à ocorrência de tornados, fonte: NOAA - National Weather
Service, Estados Unidos.
25000
custo esperado total
Custo Total Esperado
20000
15000
custo inicial
10000
Figura 1-10: Composição do custo esperado total de um sistema que apresenta risco de falha.
24
Capítulo 2
TEORIA DE PROBABILIDADES:
VARIÁVEIS ALEATÓRIAS
Definição freqüentista
Se o evento A é observado nA vezes em n realizações do experimento, a definição freqüentista de
probabilidades é dada por:
nA
P [A] = lim (2.1)
n→∞ n
Nesta definição, a probabilidade é calculada à posteriori, baseada em um grande número de ob-
servações do experimento. Esta definição é importante pra associar probabilidades com o mundo ob-
servável, e será utilizada frequentemente para interpretar probabilidades. No entanto, está definição
é limitada porque, na prática, o número de observações nunca chegará a infinito.
Definição clássica
Sendo NA o número de possíveis resultados favoráveis ao evento A e N o número total de resultados
possíveis, a definição clássica de probabilidades é dada por:
NA
P [A] = (2.2)
N
Nesta definição, a probabilidade P [A] é encontrada à priori, antes da primeira realização do ex-
perimento. Para evitar ambiguidade na contagem de NA e N , é necessário que os N eventos sejam
equi-prováveis. Em palavras, a definição é dada por:
Na definição acima, ”equi-prováveis ” significa ”com a mesma probabilidade”, o que significa que
o objeto a ser definido passa a fazer parte da definição! Sendo assim, a definição clássica também não
serve como definição, mas ainda assim pode ser entendida como uma interpretação de probabilidades.
Esta interpretação é utilizada frequentemente. Muitas vezes, a definição frequentista é utilizada para
definir os eventos equi-prováveis.
25
freqüentista está associada à média de fenômenos repetitivos, ou à multiplas observações de um evento,
a definição subjetiva refere-se a uma única ocorrência do evento. Exemplos:
”Vou lançar uma moeda. Tenho 50% de certeza de que vai dar cara!”
Definição axiomática
Cada uma das definições anteriores tem a sua utilidade na solução de problemas práticos. No entanto,
nenhuma delas se presta para a formulação de uma teoria de probabilidades. A Teoria Matemática
de Probabilidades é baseada na seguinte definição de probabilidades:
26
Operações:
• Existência:
wi ∈ A wi pertence a A ou está contido em A.
wi ∈
/A wi não pertence a A ou não está contido em A.
B⊂A B está contido em A, i.e., todo elemento de B também pertence a A.
A⊃B A contém B, i.e., todo elemento de B também pertence a A.
• Igualdade:
A=B significa que A ⊂ B e B ⊂ A.
• Soma ou união:
A + B, A ∪ B elementos pertencentes a A, a B ou a ambos.
• Produto ou intersecção:
A · B, A ∩ B elementos comuns a A e B.
• Conjuntos mutuamente exclusivos:
A·B =0 não tem elementos em comum
• Evento complementar:
A todos os elementos de Ω que não estão em A :
Ø=Ω A+A=Ω
Ω =Ø A · A =Ø
Se B ⊂ A, então B ⊃ A
• Diferença:
A−B todos os elementos de A que não pertencem a B :
A−B =A·B =A−A·B
Atenção:
(A − B) + B 6= A
(A + A) − A =Ø
A + (A − A) = A
A−Ø= A, A − Ω =Ø, Ω−A=A
• Lei de Morgan:
(A + B) = A · B
(A · B) = A + B
Em qualquer igualdade, pode-se trocar somas por produtos, produtos por somas e eventos por seus
complementares, que a igualdade fica preservada.
27
2.1.3 Espaço de probabilidades
Axiomas da teoria de probabilidades
Um experimento é formado por um espaço amostral Ω, composto de pontos amostrais wi . A definição
dos pontos amostrais é arbitrária, não necessáriamente unânime, dependendo muitas vezes do evento
de interesse. No lançamento de um dado, por exemplo, os pontos amostrais ” óbvios?” seriam
Ω = {f1 , f2 , f3 , f4 , f5 , f6 }, sendo fi o resultado i− ésima face do dado. Para outro observador, no
entanto, os resultados de interesse e portanto os pontos amostrais que compõem Ω poderiam ser
Ω = {par, impar}, e para outro observador poderiam ser Ω = {≤ 3, > 3}.
Um experimento bem definido é aquele onde os pontos amostrais de interesse estão clara e
unanbiguamente identificados.Uma realização de um experimento corresponde a observação de um
dos possíveis resultados.
o espaço amostral é composto de 36 elementos. A probabilidade de que a soma das faces seja igual a
1
12 é P [soma = 12] = 36 .
1) P [A] ≥ 0
2) P [Ω] = 1
3) P [A + B] = P [A] + P [B] (2.3)
P [Ø] = 0
P [A] + P [Ā] = 1
ou:
P [A] = 1 − P [Ā] ≤ 1
28
Construção de espaços de probabilidades
Numero finito ou contável de resultados possíveis: Sejam p1 , p2 , ..., pN números reais tais
que p1 + p2 + ...+ pN = 1, pi ≥ 0 de forma que a probabilidade do evento elementar seja P [{wi }] = pi .
Se o evento A é formado pelos elementos:
então:
P [A] = P [{wk1 }] + P [{wk2 }] + ... + P [{wkM }] = pk1 + pk2 + ... + pkM
{0 ≤ t ≤ t2 } = {0 ≤ t ≤ t1 } + {t1 < t ≤ t2 }
Pode-se mostrar ainda que a probabilidade do evento elementar P [{t = t1 }] = 0, o que resulta em:
Exemplo 3 Para uma distribuição uniforme no tempo, tem-se α(t) = cte. Logo, no intervalo {0,T}
RT
tem-se 0 α(t)dt = 1 e portanto cte = T1 . Se um evento (e.g., uma chamada telefonica ou a emissão
29
de um elétron) acontece neste intervalo, então:
t1
P [{0 ≤ t ≤ t1 }] =
T
t2 − t1
P [{t1 ≤ t ≤ t2 }] =
T
P [A · B]
P [A|B] = (2.4)
P [B]
P [A · B] = 0 ∴ P [A|B] = 0
Se A ⊂ B então A · B = A e:
P [A]
P [A|B] = ≥ P [A]
P [B]
Se B ⊂ A então A · B = B e:
P [B]
P [A|B] = =1
P [B]
Logo:
nAB
P [A|B] ≈
nB
Em palavras: desconsiderar todas as realizações em que B não ocorreu equivale a definir um
novo conjunto de observações do experimento onde o número total de realizações é nB . Logo, as
probabilidades condicionais a B são calculadas em relação ao número total de observações nB .
3
B = {par} = {f2 , f4 , f6 }, P [B] =
6
1
A = {f6 }, A · B = {f6 }, P [A · B] =
6
30
Logo:
P [A · B] 1 6 1
P [A|B] = P [{f6 |par}] = = · =
P [B] 6 3 3
Exemplo 5 Uma caixa contém 3 bolas brancas e 2 bolas vermelhas. Qual a probabilidade de sacar
uma bola branca e depois uma vermelha?
Solução ”bruta”: eventos elementares formados por duas bolas, sendo 20 possibilidades: {b1 b2 }, {b1 b3 }, {b1 v1 }, {b1 v
Destes, seis eventos correspondem a primeira bola branca e segunda vermelha, logo: P [1a branca, 2a
6
vermelha] = 20 .
Solução usando probabilidades condicionais:
3
P [1a branca] =
5
a a 2
P [2 vermelha | 1 branca] =
4
P [1a branca, 2a vermelha] = P [2a vermelha | 1a branca] · P [1a branca]
2 3 6
= · =
4 5 20
Exemplo 6 eventos condicionais no eixo dos reais:
Ai · Aj = 0, i 6= j
A1 + A2 + ... + AN = 1
Exemplo 7 Quatro caixas possuem bolas brancas e azuis dispostas conforme a tabela:
Caixa # azuis # brancas
1 1900 100
2 300 200
3 900 100
P4 900 100
4000 500
31
Selecionando uma caixa aleatóriamente, qual a probabilidade de sacarmos uma bola branca?
Seja Ci o evento selecionar a i-ésima caixa, o que equivale a selecionar todas as bolas daquela caixa:
1
P [C1 ] = P [C2 ] = P [C3 ] = P [C4 ] =
4
C1 + C2 + C3 + C4 = Ω
Ci · Cj = 0, i 6= j
Seja B o evento selecionar bola branca. Para cada caixa, temos as seguintes probabilidades condi-
cionais:
100
P [B|C1 ] = = 0.05
2000
200
P [B|C2 ] = = 0.40
500
100
P [B|C3 ] = = 0.10
1000
100
P [B|C4 ] = = 0.10
1000
Logo, utilizando o teorema da probabilidade total temos:
Obs: se todas as bolas estivessem na mesma caixa, a probabilidade de selecionar uma branca seria:
500
P [B] = 4500 = 19 = 0.1111111
ou:
P [B|A] · P [A]
P [A|B] = (2.6)
P [B]
Sejam N eventos Ai mutuamente exclusivos e tal que sua soma corresponde a Ω:
Ai · Aj = 0, i 6= j
A1 + A2 + ... + AN = 1
P [B|Ai ] · P [Ai ]
P [Ai |B] = (2.7)
P [B|A1 ] · P [A1 ] + P [B|A2 ] · P [A2 ] + ... + P [B|AN ] · P [AN ]
Exemplo 8 Quatro caixas com bolas brancas e azuis (cont.): Se a bola selecionada no exemplo ante-
rior foi branca, qual a probabilidade de que ela tenha sido tirada da caixa 2? P [C2 |B] =?
Sabemos que:
P [B] = 0.1625, P [B|C2 ] = 0.4, P [C2 ] = 0.25
32
2.1.7 Independência de eventos
Definição 9 Dois eventos A e B são independentes se:
Utillizando a definição de probabilidades condicionais (eq. 2.4), conclue-se também que para dois
eventos A e B independentes:
P [A|B] = P [A]
P [B|A] = P [B]
Ā e B̄ são independentes;
A e B̄ são independentes;
Ā e B são independentes;
3. Se eventos A1 , A2 , ..., AN são independentes, então qualquer destes eventos também é indepen-
dente de qualquer evento formado por sub-conjuntos, somas, produtos, ou complementos dos
demais eventos.
Se mais de dois eventos forem apenas independentes aos pares, não está garantida a independência
entre os eventos.
1
b) se P [A · B] = P [B · C] = P [A · C] = P [A · B · C] = 125 , tem-se que P [A · B · C] = P [A] · P [B] · P [C],
no entanto
P [A · B] 6= P [A] · P [B]
P [B · C] 6= P [B] · P [C]
P [A · C] 6= P [A] · P [C]
33
2.2 VARIÁVEIS ALEATÓRIAS
2.2.1 Definição de variável aleatória
Sabe-se do cálculo que uma função x = x(t) é uma regra de correspondência que relaciona valores da
variável independente t com valores da variável dependente x. O conjunto de valores que t pode assumir
é chamado de domínio da função enquanto que o conjunto de valores assumidos por x corresponde à
imagem da função.
Para um determinado experimento com espaço amostral Ω e pontos amostrais wi , uma variável
aleatória real X é obtida atribuindo-se um numero real x(wi ) a cada ponto amostral wi , observando-se
as condições impostas na definição a seguir:
Definição 11 Uma variável aleatória real X é uma função real que atribui a cada ponto amostral wi
de um espaço amostral Ω um valor real x(wi ), tal que:
1. o conjunto {X ≤ x} é um evento para qualquer número real x;
2. a probabilidade dos eventos {X = −∞} e {X = +∞} é nula.
É comum representar uma variável aleatória por uma letra maiúscula, e uma realização desta
variável por uma letra minúscula. Sendo assim, o evento {X = x} pode ser descrito como ”a variável
aleatória X assumir o valor x”. O evento {X ≤ x} significa ”a variável aleatória X assumir qualquer
valor menor do que x”. Claramente, sendo X uma variável aleatória, a ocorrência deste evento só
pode ser determinada como uma determinada probabilidade.
O domínio da função variável aleatória é o conjunto de pontos amostrais wi que formam o espaço
amostral Ω. Quando este domínio é formado por um número finito ou infinito contável de pontos,
diz-se que a variável aleatória é do tipo discreta. Quando o domínio é formado por um número infinito
de pontos, tem-se uma variável contínua. Existem também variáveis do tipo mixto, que serão descritas
mais adiante.
34
Propriedades da função de distribuição acumulada de probabilidades:
1. FX (−∞) = 0, FX (+∞) = 1;
dFX (x)
fX (x) = (2.10)
dx
Como a função de distribuição de probabilidades pode não ter derivadas em todo x, faz-se uma
distinção entre variável aleatória contínuas e discretas. Esta distinção condiz com o domínio destes
tipos de variáveis.
P [{x ≤ X ≤ x + ∆x}]
fX (x) = lim (2.11)
∆x→0 ∆x
Se a função FX (x) é contínua, não possui saltos, e dai resulta que:
35
Variáveis aleatórias discretas
Quando a função FX (x) é descontínua, a variável aleatória é do tipo discreta. Chamando de pi o salto
da função FX (x) no ponto xi , tem-se:
X
P [{X = xi }] = FX (xi ) − FX (x−
i ) = pi , i = 1, 2, ..., pi = 1
i
No caso de variável aleatória discretas, a função fX (x) pode ser descrita por pulsos, onde um pulso
de intensidade pi ocorre a cada ponto de descontinuidade xi , conforme ilustrado:
X
fX (x) = pi δ(x − xi )
i
Se o domínio da variável aleatória é formado por um número finito ou infinito contável de pontos
amostrais, então esta variável é discreta. No entanto, a recíproca não é verdadeira, i.e., existem
variáveis aleatórias discretas cujo domínio é formado por um número infinito de pontos.
onde fX (x) é a função de densidade de probabilidade da variável aleatória X. Note que E[.] é o
operador valor esperado, e µX é uma denominação para a média da variável aleatória.
Se fX (x) é interpretada como uma função de densidade de massa no eixo x, então E[X] é o centro
de gravidade desta massa.
Se fX (x) é uma função simétrica, então fX (−x) = fX (+x) e E[X] = 0.
Se fX (x) é simétrica em torno de x = a, então fX (a − x) = fX (x − a) e E[X] = a.
Se a variável X está associada a um evento A de tal forma que:
½
1 se w ∈ A
X(w) =
0 se w ∈/A
Logo, o valor esperado de X pode ser entendido como a probabilidade de ocorrência do evento A.
É importante observar que os valores assumidos pela variável podem nunca ser iguais à média.
Por exemplo, num lançamento de moedas onde X seja definido da seguinte forma:
½
1 se cara
X(w) =
0 se coroa
36
onde a função fX (x) é máxima. A mediana é o ponto X = xmed onde P [{X ≤ xmed }] = FX (xmed ) = 12 .
Para uma função g(X) qualquer de uma variável aleatória, o valor esperado é definido como:
Z +∞
E[g(X)] = g(x)fX (x)dx
−∞
Variância
Outra importante quantidade utilizada para descrever variáveis aleatórias é a variância, V ar[X], que
mede a dispersão da variável em torno da média:
Z +∞
V ar[X] = E[(X − µ)2 ] = σ 2 = (x − µ)2 fX (x)dx (2.13)
−∞
Na expressão acima, a constante σ é chamada de desvio-padrão, que vem a ser a raiz quadrada da
variância: p
σ = V ar[X] ou V ar[X] = σ2
A média ou valor esperado de uma variável aleatória são é um caso particular de um resultado geral,
que estabelece os momentos de ordem k de uma variável aleatória:
Z +∞
E[X k ] = µk = xk fX (x)dx (2.14)
−∞
Dentro de certas restrições, o conjunto de momentos define de forma única a função de densidades
fX (x) de uma variável aleatória. Os seguintes casos particulares são importantes:
37
m0 = 1 = probabilidade do espaço amostral
m1 = 0
m2 = σ 2 = variância
m3 = fator de forma
Coeficientes adimensionais
Coeficiente de variação:
σ
c.o.v =
µ
Coeficiente de simetria:
m3
γ1 =
(σ X )3
Coeficiente de planicidade ou kurtosis:
m4
γ2 =
(σ)4
Desigualdade de Tchebycheff
Para uma variável aleatória X qualquer, com média µ e desvio-padrão σ, a desigualdade de Tchebycheff
estabelece:
1
P [|X − µ| ≥ c · σ] ≤ 2
c
ou seja:
”a probabilidade de uma variável aleatória qualquer diferir de sua média por, no mínimo,
c desvios-padrão, é menor ou igual a c12 ”
38
Nesta seção, será demostrado que x̄ e v̄ são estimadores de µ e σ 2 . Para isto, é importante notar que
a cada nova realização ou observação da amostra de tamanho n, novos valores x1 , x2 , ..., xn são obtidos,
alterando também os valores de x̄ e v̄. Sendo assim, é natural assumir que os valores observados xi ,
assim como a média x̄ e a variância v̄, sejam variáveis aleatórias. Mais ainda, como todos os valores
xi correspondem a observações da mesma variável, assume-se que as variáveis aleatórias Xi tenham a
mesma média e variância da variável X original, i.e.:
E[Xi ] = µ
E[(Xi − µ)2 ] = σ 2Xi = σ 2 , i = 1, 2, ..., n
Logo:
1 2 nσ 2 σ2
σ 2X̄ = (σ + σ 2
+ ... + σ 2
) = =
n2 X1 X2 Xn
n2 n
Neste resultado, nota-se que a variância do estimador X̄ tende a zero com n → ∞.
Utilizando raciocínio similar, pode-se mostrar ainda que (Papoulis, 1965, pg. 246):
n−1 2
E[V̄ ] = σ (2.18)
n
o que mostra que V̄ tal como definido na equação (2.17), é um estimador tendencioso da variância de
X, σ2 . Esta tendência é resultado do fato de que o estimador V̄ computa a distância entre os pontos
xi e a média da amostra, x̄, e não em relação à media populacional µ. Como a média da amostra é
calculada com o mesmo conjunto de pontos xi , resulta que a variância em relação a x̄ é menor do
que a variância em relação a µ, e portanto (2.17) sub-estima a variância como demonstra a equação
(2.18).
n
Multiplicando o estimador da variância (eq. 2.17) pelo termo n−1 , pode-se corrigir a tendenciosi-
dade do mesmo. Assim, um estimador não-tendencioso da variância é obtido como:
n
1 X
v̄ = (xi − x̄)2 (2.19)
n − 1 i=1
A expressão (2.19) exige que a média amostral seja determinada preliminarmente, e que os pontos
xi sejam armazenados para avaliação da variância. Isto nem sempre é conveniente, por exemplo
quando o tamanho da amostra n é grande. Uma expressão alternativa, que permite a avaliação da
variância à medida que os resultados xi vão sendo obtidos, é:
Pn Pn
2 2
n i=1 (xi )− ( i=1 xi )
v̄ = (2.20)
n(n − 1)
39
2.3 MODELOS ANALÍTICOS DE FENÔMENOS ALEATÓRIOS
2.3.1 Variáveis aleatórias discretas
Generalidades
Uma variável aleatória com domínio formado por um número finito ou infinito contável de pontos
amostrais é do tipo discreto. Seja n o número de pontos amostrais de uma variável discreta X, que
assume os valores xi, i = 1, 2, ..., n tal que:
P [{X = xi }] = pi , i = 1, 2, ..., n
Xn
pi = 1
i=1
A função de densidade de probabilidades fX (x) pode ser descrita por pulsos, onde um pulso de
intensidade pi ocorre a cada ponto xi , conforme ilustrado:
X
fX (x) = pi δ(x − xi ) (2.21)
i
A distribuição uniforme mais simples que existe é aquela em que todos os n pontos amostrais que
formam o domínio são equi-prováveis. Neste caso, tem-se:
1
pi =
n
Se X apresenta distribuição uniforme nos inteiros consecutivos entre a e b (escrevemos X ∼
U D(a, b, n)), para a ≤ b, então:
a+b
µ =
2
(b − a + 1)2 − 1
σ2 =
12
Tentativa de Bernoulli
A realização de um experimento que possue apenas dois resultados possíveis (dois pontos amostrais)
é chamado de tentativa de Bernoulli. Os resultados possíveis podem ser do tipo sucesso ou falha, cara
ou coroa, zero ou um, preto ou branco, flip ou flop, ying ou yang, etc. Em geral, os dois resultados
possíveis podem ser a ocorrência ou não de um evento de interesse. Neste caso, p é a probabilidade
de ocorrência do evento de interesse a cada realização do experimento e q = 1 − p é a probabilidade
de não-ocorrência.
40
A grandeza que define o evento de interesse pode ser contínua, i.e., pode assumir mais do que dois
valores. Ainda assim, obtém-se uma tentativa de Bernoulli ao definir-se um valor limite ou crítico
para a variável de interesse. Exemplos:
1. cada tentativa ou repetição possue apenas dois resultados possíveis: ocorrência ou não ocorrência
do evento de interesse;
2. a probabilidade p de ocorrência do evento permaneçe constante para todas as n tentativas;
3. as tentativas são estatísticamente independentes, i.e., o resultado de uma tentativa não altera a
probabilidade p da próxima ou de qualquer outra tentativa.
w = {o, o, n, o, n, n, o, n, o, o, n, n, n}
P [w] = px q n−x
O número de possíveis sequências w que resultam em exatamente x ocorrências (e n−x não ocorrências)
em qualquer ordem é igual ao número de combinações de x ocorrências em n realizações, ou combinação
de n objetos x a x: µ ¶
n n!
=
x x!(n − x)!
Como todas as seqüencias w são equiprováveis, obtém-se:
µ ¶
n
P [{x ocorrências em n realizações}] = px q n−x
x
Uma variável aleatória X que conta o número x de ocorrências em n realizações deste experimento
segue uma distribuição Binomial com parâmetros n e p (escreve-se X ∼ BN (n, p)). A função de
densidade de probabilidades de X é dada por:
µ ¶
n
P [{X = x}] = P [{x ocorrências em n realizações}] = px q n−x (2.25)
x
41
O valor esperado e a variância de X são:
E[X] = µ = np
V ar[X] = σ 2 = npq (2.27)
1
Como q < 1, a série entre parenteses converge para p2 , de forma que:
1
E[X] = (2.30)
p
42
return period ) é dado pelo valor esperado:
1
E[T ] = µT =
p
É importante observar que µT é o tempo médio de retorno do evento de interesse, enquanto que
T é o tempo aleatório (em número de intervalos) entre ocorrências.
A probabilidade de não ocorrência do evento de interesse durante o tempo médio de retorno é:
Para eventos raros (com pequena probabilidae de ocorrência p ou grande período médio de retorno
µT ), a expansão do binômio em (2.32) resulta em:
43
É fácil perceber que estas premissas são conseqüência natural da convergência da seqüência de
Bernoulli em um processo de Poisson.
Com n → ∞ e p → 0 em uma seqüência de Bernoulli,o número médio de ocorrências em um
intervalo de tempo de tamanho t é dado por λ = np, uma constante maior do que zero que caracteriza
o processo de Poisson. Dividindo-se este número pelo tamanho do intervalo t, obtém-se a taxa média
υ de ocorrências (no tempo ou espaço) do evento de interesse:
λ
υ= ou λ = υt = np
t
Pode-se mostrar (Ang e Tang, 1975, pg.116) que no limite com n → ∞ a probabilidade P [{X = x}]
na equação (2.25) tende a:
(υt)x
P [{X = x}] = P [{x ocorrências em t}] = exp[−υt] (2.33)
x!
Esta vem a ser a função de densidade de probabilidades da variável aleatória X que descreve o
número de ocorrências do evento de interesse no intervalo de tamanho t. A função de distribuição
cumulativa de probabilidades é dada por:
x
X (υt)k
P [{X ≤ x}] = exp[−υt] (2.34)
k!
k=0
E[X] = υt
V ar[X] = υt (2.35)
A variável aleatória que descreve o tempo entre ocorrências sucessivas em um processo de Poisson
segue uma distribuição exponencial, que é apresentada na seção (2.3.2).
Uma variável aleatória com domínio formado por um número infinito e incontável de pontos amostrais
é do tipo contínuo. Seja fX (x) a função de densidades de probabilidades de uma variável aleatória
contínua X. A função de probabilidades acumuladas é:
Z x
FX (x) = fX (u)du
−∞
Z +∞
E[X] = µ = xfX (x)dx
−∞
Z +∞
V ar[X] = σ 2 = (x − µ)2 fX (x)dx
−∞
Distribuição causal
A distribuição causal não é propriamente uma distribuição estatística. Ela é utilizada para represen-
tar, na forma de uma variável aleatória, um valor determinístico. As funções de probabilidade podem
44
ser escritas como:
fX (x) = δ(x0 ); −∞ ≤ x ≤ ∞
FX (x) = H(x0 ); −∞ ≤ x ≤ ∞
X −µ
Y =
σ
Para a variável normal padrão Y , temos :
· 2¸
1 y
fY (y) = φ(y) = √ exp − −∞≤y ≤∞ (2.38)
2π 2
Z y
FY (y) = φ(z)dz = Φ(y) −∞≤y ≤∞ (2.39)
−∞
45
Os valores da função Φ(y) são tabelados; tais tabelas são disponibilizadas na maioria dos livros sobre
teoria de probabilidades ou confiabilidade estrutural. Neste material, optamos por apresentar uma
aproximação polinômica para a função Φ(y) e sua inversa (seção 2.9.2).
Para a variável aleatória X ∼ N (µ, σ), a distribuição cumulativa de probabilidades FX (x) é de-
terminada a partir de Φ(y):
µ ¶
x−µ
FX (x) = Φ
σ
µ = exp[λ + 0.5ξ 2 ]
q¡ ¢
σ = µ exp[ξ 2 ] − 1
λ = ln(µ) − 0.5ξ 2
q ¡ ¢
ξ = ln 1 + δ 2
µneq = x (1 − ln (x) + λ)
σneq = xξ
dFT1 (t)
fT (t) = = υ exp[−υt], t≥0 (2.41)
dt
A distribuição exponencial possue um único parâmetro, que é a taxa média (no tempo ou espaço)
de ocorrência de eventos, υ. Quando esta taxa é cosntante no tempo, os momentos estatísticos são:
1
E[T1 ] = µT1 =
υ
µ ¶2
1
V ar[T1 ] = (2.42)
υ
46
A distribuição exponencial é a análoga contínua da distribuição geométrica. Devido à falta de
memória do processo de Poisson, o tempo até a primeira ocorrência é também igual ao tempo entre
ocorrências ou período de retorno, análogo contínuo ao tempo de retorno discreto descrito na página
(42). Assim, µT1 vem a ser o período médio de retorno para eventos que ocorrem ao longo de um
contínuo. Note como µT1 = υ1 se compara com p1 na seqüência de Bernoulli.
O processo de Poisson que dá origem à distribuição exponencial na seção anterior tem seu início no
instante t = 0. Uma situação mais geral é aquela de um processo que inicia no instante t = ε. A
variável aleatoria resultante, que descreve o tempo até a primeira ou entre ocorrências a partir do
instante ε, segue uma distribuição exponencial deslocada. Se X ∼ EXP (υ, ε), então as funções de
probabilidade são:
Funções de probabilidade:
" µ ¶2 #
(x − ε) 1 x−ε
fX (x) = exp − ; ε≤x≤∞
η2 2 η
" µ ¶2 #
1 x−ε
FX (x) = 1 − exp − ; ε≤x≤∞
2 η
Momentos:
r
π
µ = η +ε
2
r
π
σ = η 2−
2
Parâmetros:
σ
η p =
2 − π2
r
π
ε = µ−η
2
47
Distribuição logística LOG(µ, σ)
Funções de probabilidade:
h i
π (x−µ)
exp √
3 σ
fX (x) = ³ h i´2 ; −∞ ≤ x ≤ ∞
1 + exp √π3 (x−µ)
σ
1
FX (x) = h i; −∞ ≤ x ≤ ∞
1 + exp − √π3 (x−µ)
σ
Uma variável aleatória do tipo misto (também chamada de clipada) Y é obtida a partir de uma
variável aleatória contínua Z, estritamente positiva, definindo-se:
p = P [{Y = 0}]
q = P [{Y > 0}]
conforme a figura (2-1). As funções de distribuição de probabilidades de Y são obtidas a partir das
distribuições de Z:
fY ( y ) FY ( y )
1
2
p 0.8
1.5
0.6
fXHxL
FXHxL
1 0.4
FZ ( y )
0.5
q fZ ( y) 0.2
p
0
0 0.5 1 1.5 2 0 0.5 1 1.5 2 2.5 3
x x
Figura 2-1: PDF e CDF de variável aleatória clipada com p = 0.2 e q = 0.8.
48
2.4 DISTRIBUIÇÃO CONJUNTA DE PROBABILIDADES
Na seção anterior, consideramos problemas envolvendo variáveis aleatórias individuais, isoladas. Nesta
seção, estudadas as características e propriedades de conjuntos de variáveis aleatórias.
onde FX (x) e FY (y) são as funções de distribuição cumulativa de probabilidades das variáveis X e Y.
O produto destes dois conjuntos forma um evento:
{X ≤ x}{Y ≤ y} = {X ≤ x, Y ≤ y}
{X ≤ x, Y ≤ ∞} = {X ≤ x}
{X ≤ ∞, Y ≤ y} = {Y ≤ y}
Portanto, a seguinte relação entre distribuições conjuntas e marginais pode ser feita:
FXY (∞, ∞) = 1
e, de maneira equivalente:
FXY (−∞, −∞) = 0
∂ 2 FXY (x, y)
fXY (x, y) =
∂x∂y
é a função conjunta de densidades de probabilidades das variável aleatória X e Y. Por analogia a
equação (2.11), pode-se escrever também:
e:
fXY (x, y) ≥ 0 para todo (x, y) ∈ R2
49
Para elementos diferenciais dx e dy, pode-se escrever ainda que:
{x ≤ X ≤ x + dx, y ≤ Y ≤ y + dy}
tal que: ZZ
P [{(x, y) ∈ D}] = fXY (x, y)dxdy (2.45)
D
Esta quantidade também pode ser interpretada como a massa de probabilidades na região D.
50
f X (x) fY ( y)
f XY (x, y)
Portanto: Ry Ry
f
−∞ XY
(x, v)dv fXY (x, v)dv
FY (y|X = x) = = R −∞
+∞ (2.50)
fX (x) fXY (x, y)dy
−∞
Note a semelhança destas expressões com a equação (2.4). As funções condicionais de densidade
de probabilidades para duas variáveis X e Y são ilustradas na figura (2-2).
51
2.4.6 Teorema da probabilidade total (versão contínua)
Reunindo resultados anteriores, tem-se das equações (2.49) e (2.51) que:
Z +∞
fY (y) = fXY (x, y)dx
−∞
fXY (x, y) = fY (y|X = x)fX (x)
Este resultado mostra que, para eliminar a condição {X = x}, basta multiplicar pela função fX (x) e
integrar em x.
Combinando agora as equações (2.51) e (2.52), obtém-se uma versão contínua para o Teorema de
Bayes:
fX (x|Y = y)fY (y)
fY (y|X = x) =
fX (x)
Compare este resultado com a equação (2.6).
2.4.8 Covariância
Quando duas ou mais variáveis estão definidas no mesmo espaço de probabilidades, é importante de-
screver como elas variam conjuntamente. Uma medida linear da relação entre duas variáveis aleatórias
é a covariância, definida como:
Note ainda que a covariância de uma v.a. com ela mesma corresponde à variância desta variável:
52
Uma medida adimensional da covariância entre duas v.a.s é dada pelo coeficiente de correlação:
Cov[X, Y ]
ρXY = (2.58)
σX σY
Este coeficiente adimensional varia entre os valores:
−1 ≤ ρXY ≤ 1
O valor ρXY = 1 implica correlação positiva e perfeita. O valor ρXY = −1 implica correlação
negativa e perfeita.
A figura (2-3) ilustra diferentes possibilidades de covariância entre v.a.s, representadas pelo coefi-
ciente de correlação. Observe que a covariância implica dependência entre duas v.a.s, mas covariância
nula não implica em independência, conforme ilustrado na figura. Covariância é um caso especial de
dependência linear, sendo outras formas de dependência também possíveis.
X X X
X X X
Y 0≤ρ≤1 Y 0≤ρ≤1
X X
Figura 2-3: Exemplos de covariância (dependência linear) entre duas variáveis aleatórias.
Exemplo 20 Seja Y = g(X). Existe uma relação funcional de dependência entre as variáveis X e
Y. No entanto, se a função g(.) for altamente não linear, então a covariância de X e Y é nula!
µkn = E[X k Y n ]
Z +∞ Z +∞
= xk y n fXY (x, y)dxdy
−∞ −∞
53
A soma k + n corresponde à ordem do momento conjunto. Os momentos de segunda ordem µ20 e µ02
correspondem ao segundo momento das variáveis X e Y, respectivamente. O momento de segunda
ordem µ11 é de particular importância:
Z +∞ Z +∞
µ11 = E[XY ] = xyfXY (x, y)dxdy
−∞ −∞
E[XY ] = Cov[X, Y ] + µX µY
mkn = E[(X − µX )k (Y − µY )n ]
Z +∞ Z +∞
= (x − µX )k (y − µY )n fXY (x, y)dxdy
−∞ −∞
Até este ponto nesta seção consideramos as distribuições de probabilidades conjuntas e outras pro-
priedades para pares de variáveis aleatórias. Nos problemas de engenharia, as variáveis aleatórias
apareçem em grupos muito maiores. Nesta seção, apresentamos a notação utilizada para lidar com
problemas envolvendo muitas variáveis aleatórias. Colocando de maneira simples, a determinação de
estatísticas em problemas envolvendo muitas variáveis aleatórias é o objetivo principal da análise de
confiabilidade estrutural. Sendo assim, resultados nã são apresentados nesta seção, mas nos capítulos
que seguem.
Um conjunto de variáveis aleatórias {X1 , X2 , ..., Xn } sempre pode ser representado por um vetor.
Neste livro, denotaremos vetores com negrito, de forma que X será um vetor de variáveis aleatórias.
Uma realização deste vetor corresponde a uma realização de cada uma das variáveis aleatórias que o
compõe, o que será representada pelo evento {X = x}. A função conjunta de distribuição cumulativa
de probabilidades fica:
54
2.5 FUNÇÕES DE UMA VARIÁVEL ALEATÓRIA
Na resolução de problemas envolvendo variáveis aleatórias, freqüentemente encontramos relações fun-
cionais envolvendo estas variáveis, por exemplo a simples relação Y = g(X). Claramente, Y é uma
variável aleatória que depende funcionalmente de X. Tanto o domínio de Y como suas funções de
probabilidades são definidos pela variável aleatória independente X e pela função g(.). Nesta seção,
estudamos como estabelecer as estatísticas de uma variável aleatória dependente Y .
Y (w) = g(X(w))
Logo, o domínio de g(X) é o espaço amostral Ω, enquanto que o domínio de g(x) é o conjunto dos
números reais, conforme ilustrado na figura (xx).
x ∈ IY se e somente se g(x) ≤ y
Logo, para determinar-se FY (y) para um valor y dado deve-se encontrar o conjunto IY e a probabili-
dade do evento {X ∈ IY }.
y−b
Exemplo 21 Seja Y = aX + b, a > 0. Neste caso, temos que ax + b ≤ y para x ≤ a , portanto IY
é o conjunto IY = (−∞, y−b
a ). Logo:
µ ¶
y−b y−b
FY (y) = P [{Y ≤ y}] = P [{X ≤ }] = FX
a a
ou: µ ¶
y−b
FY (y) = FX
a
55
determinada. Nota-se na figura que as probabilidades:
dx fX (x)
fY (y) = fX (x) = 0 (2.59)
dy |g (x)|
sendo:
dg(x)
g 0 (x) =
dx
y−b
Exemplo 22 Seja Y = aX + b, a > 0. Resolvendo para x temos x = a . Com g 0 (x) = a obtém-se:
µ ¶
1 y−b
fY (y) = fX
a a
Compare este resultado com o resultado do exemplo (21), e note que poderia ser obtido diretamente
derivando em relação a y.
56
p p
Exemplo 23 Seja Y = aX 2 , a > 0. As raízes são: x1 = + ay e x2 = − ay . As derivadas são:
√ √
g 0 (x1 ) = 2ax1 = 2 ay e g 0 (x2 ) = 2ax2 = −2 ay. Para y < 0 não há solução, logo fY (y) = 0 para
y < 0. Portanto, a solução resulta:
· µ r ¶ µ r ¶¸
1 y y
fY (y) = √ fX + + fX − para y ≥ 0
2 ay a a
= 0 para y < 0
Exemplo 24 Transformação de Hasofer e Lind: Seja X uma v.a. com distribuição normal e parâmet-
ros X ∼ N (µ, σ) e distribuição dada pela equação (2.36). Para a função Y = g(X) = X−µ
σ , queremos
determinar a distribuição fY (y).
Resolvendo para x obtemos x = σy + µ e:
dy 1
g 0 (x) = =
dx σ
Utilizando as equações (2.36 e 2.59), obtemos:
" µ ¶2 #
fX (x) 1 |σ| 1 σy + µ − µ
fY (y) = =√ exp −
|g 0 (x)| 2π σ 2 σ
· 2¸
1 y
fY (y) = √ exp −
2π 2
Esta é uma distribuição normal com média nula e desvio-padrão unitário, conforme argumentado
na seção (??).
Exemplo 25 Relação normal - lognormal: Seja X uma v.a. log-normal com parâmetros X ∼
LN (λ, ξ). Queremos determinar a distribuição de probabilidades de Y = ln[X]. Primeiramente, obte-
mos:
x = exp[y]
dx 1
= = exp[y]
dy g 0 (x)
o que representa uma distribuição normal com media λ e desvio-padrão ξ. Deste resultado, resulta
também que:
E[Y ] = E[ln[X]] = λ
V ar[Y ] = V ar[ln[X]] = ξ 2
57
Seja a função Y = g(X). Como Y depende funcionalmente de X, o valor esperado e a variância
da v.a. Y são obtidos como:
Z +∞ Z +∞
E[Y ] = yfY (y)dy = g(x)fX (x)dx (2.60)
−∞ −∞
Z +∞
V ar[Y ] = E[(Y − E[Y ])2 ] = (g(x) − E[Y ])2 fX (x)dx (2.61)
−∞
g 00 (µX )(X − µX )2
g(X) ≈ g(µX ) + g 0 (µX )(X − µX ) + + ... (2.62)
2
Mantendo apenas o termo de primeira ordem e aplicando o operador valor esperado obtém-se:
Estes dois resultados representam uma aproximação de primeira ordem para o valor esperado e a
variância de g(X).
Considerando agora mais um termo (o termo de segunda ordem) na expansão (2.62) e aplicando o
operador valor esperado:
g 00 (µX )(X − µX )2
E[Y ] ≈ E[g(µX )] + E[g 0 (µX )(X − µX )] + E[ ]
2
V ar[X] 00
= g(µX ) + g (µX )
2 ¯
V ar[X] d2 g(x) ¯¯
= g(µX ) + (2.65)
2 dx2 ¯µX
Pode-se mostrar que a variância da aproximação de segunda ordem utilizando a equação (2.62)
58
resulta:
à ¯ !2 à ¯ !2
dg(x) ¯¯ V ar[X]2 d2 g(x) ¯¯
V ar[Y ] ≈ V ar[X] −
dx ¯µX 4 dx2 ¯µX
¯ Ã ¯ !2
2 ¯
3 dg(x) d g(x) ¯ 4 d2 g(x) ¯¯
+E[(X − µX ) ] + E[(X − µX ) ] (2.66)
dx dx2 ¯µX dx2 ¯µX
FZ (z) = P [{(x, y) ∈ DZ }]
ZZ
= fXY (x, y)dxdy (2.67)
DZ
A densidade fZ (z) pode ser determinada derivando a função FZ (z). Para tanto, convém escrever
x = g −1 (z, y). A equação (2.67) fica:
Z ∞ Z g −1 (z,y)
FZ (z) = fXY (x, y)dxdy
−∞ −∞
Derivando em relação a z : Z ¯ −1 ¯
∞ ¯ ∂g ¯
fZ (z) = fXY (g −1
, y) ¯¯ ¯ dy (2.68)
−∞ ∂z ¯
Um resultado semelhante pode ser obtido em termos da variável x, integrando-se primeiro em
relação a y. Para tanto, escrevemos y = g −1 (x, z). Em procedimento análogo, obtemos:
Z ∞ ¯ −1 ¯
¯
−1 ¯ ∂g
¯
fZ (z) = fXY (x, g ) ¯ ¯ dx (2.69)
−∞ ∂z ¯
Alternativamente, pode-se determinar fZ (z) encontrando a região ∂DZ no plano xy tal que z ≤
59
g(x, y) ≤ z + dz:
Exemplo 26 Soma de duas v.a.s contínuas: Seja a soma Z = aX+bY, onde a e b são duas constantes.
∂g −1
Escrevendo y = g −1 (x, z) = z−ax 1
b , obtemos ∂Z = b . Da equação (2.69) resulta:
Z ∞
1 z − ax
fZ (z) = fXY (x, )dx
−∞ b b
Estes resultados se aplicam a soma de v.a.s contínuas discretas, desde que substituída a integral
pelo somatório correspondente.
(υt)x
pX (x) = P [{X = x}] = exp[−υt]
x!
(ηt)y
pY (y) = P [{Y = y}] = exp[−ηt]
y!
Substituindo a integral na equação (2.71) por um somatório, a distribuição da soma é obtida como:
X
pZ (z) = pX (x)pY (z − x)
todo x
X (υt)x (ηt)(z−x)
= exp[−υt] exp[−ηt]
x!(z − x)!
todo x
X υ x η (z−x)
= exp[−(υ + η)t]tz
x!(z − x)!
todo x
(υ+η)z
O somatório sobre x na expressão acima corresponde à expansão binomial de z! , de forma que:
[(υ + η)t]z
pZ (z) = exp[−(υ + η)t]
z!
Esta expressão corresponde a uma distribuição de poisson com parâmetro υ + η. este resultado pode
ser generalizado no seguinte teorema:
60
Teorema 29 Soma de processos de Poisson independentes: a soma de n processos de Poisson inde-
pendentes é também
Pn um processo de Poisson. Seja Xi um processo deP
Poisson com parâmetro υ i. O
n
processo Z = i=1 Xi é um processo de Poisson com parâmetro υ z = i=1 υ i.
Exemplo 30 Soma (e diferença) de v.a.s normais independentes: sejam duas v.a.s X e Y normais
independentes com parâmetros X ∼ N (µX , σX ), Y ∼ N (µY , σ Y ). A distribuição da soma Z = X + Y,
a partir das equações (2.36) e (2.71), é:
Z ∞ " µ ¶2 # " µ ¶2 #
1 1 1 x − µX 1 z − x − µY
fZ (z) = exp − exp − dx
2π σ X σ Y −∞ 2 σX 2 σY
" (µ ¶2 µ ¶2 )# Z ∞ · ¸
1 1 1 µX z − µY 1¡ 2 ¢
= exp − + exp − ux − 2vx dx(2.72)
2π σ X σ Y 2 σX σY −∞ 2
onde:
1 1 µX z − µY
u= 2 + 2 ; v= 2 +
σX σY σX σ 2Y
Fazendo uma substituição de variáveis:
v
w =x−
u
o termo integral resulta:
Z ∞ · ¸ Z ∞ · ¸
1¡ ¢ v2 1
exp − ux2 − 2vx dx = exp[ ] exp − uw2 dw
−∞ 2 2u −∞ 2
√ 2
2π v
= exp[ ]
u 2u
Substituindo este resultado na equação (2.72) obtemos:
à !2
1 1 1 z − (µ + µ )
fZ (z) = √ p 2 exp − p X Y
2π σ X + σ 2Y 2 σ 2X + σ 2Y
µZ = µX + µY
σ 2Z = σ 2X + σ 2Y
De maneira semelhante, podemos mostrar que a diferença Z = X −Y também tem distribuição normal,
com parâmetros:
µZ = µX − µY
σ 2Z = σ 2X + σ 2Y
com parâmetros:
n
X
µZ = µXi
i=1
Xn
σ 2Z = σ 2Xi (2.73)
i=1
61
Generalizando ainda mais este resultado, resulta que qualquer função linear de v.a.s normais é também
uma v.a. normal. Os resultados apresentados na equação (2.73) são válidos ainda para qualquer função
linear de v.a.s independentes, independentemente da distribuição, conforme é verificado adiante.
Teorema 32 Teorema do limite central: A soma de um grande numero de variaveis aleatórias, inde-
pendente da sua distribuição mas desde que nenhuma delas seja dominante, tende a uma distribuição
normal!
Este teorema é muitas vezes utilizado para justificar a escolha de uma distribuição Gaussiana para
processos ou variáveis que sejam resultado da soma de grande número de efeitos individuais. Uma
conseqüência do teorema do limite central refere-se ao produto de diversas variáveis aleatórias:
O teorema do limite central pode ser demonstrado através de um exemplo simples, envolvendo a
soma de variáveis aleatórias:
Pn
Exemplo 34 Seja uma variável Y = √1n i=1 Xi onde as variáveis Xi são estatísticamente indepen-
dentes e idênticamente distribuídas com probabilidades:
1
P [{Xi = +1}] =
2
1
P [{Xi = −1}] =
2
Verifique o que acontece com a função de densidades (ou com o histograma) da variável Y a medida
que aumenta o número de termos! A figura 34 mostra alguns resultados.
1
fY(y) n=1 0.5 fY(y) n=2
0.8
0.4
0.6
0.3
0.4
0.2
0.2 0.1
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
62
1 1
fY(y) n=1 fY(y) n=2
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
-2 -1 0 1 2 -2 -1 0 1 2
1 1
fY(y) n=3 fY(y) n = 10
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
-2 -1 0 1 2 -2 -1 0 1 2
Seja uma função Y = g(X1 , X2 , ..., Xn ). O valor esperado de Y pode ser obtido através de:
Z +∞
E[Y ] = yfY (y)dy
−∞
Z +∞ Z +∞
E[Y ] = ... g(x1 , x2 , ..., xn )fX1 X2 ...Xn (x1 , x2 , ..., xn )dx1 dx2 ...dxn (2.74)
−∞ −∞
É fácil perceber que a avaliação de (2.74) não é simples, pois envolve uma integral multi-dimensional
de uma função conjunta de probabilidades.
V ar[Y ] = E[(Y − µY )2 ]
= E[(aX + b − aµX − b)2 ]
Z +∞
2
= a (x − µX )2 fX (x)dx
−∞
= a2 V ar[X]
63
Seja agora a função Y = a1 X1 + a2 X2 , sendo a1 e a2 duas constantes. Da equação (??) obtemos:
Z +∞ Z +∞
E[Y ] = (a1 x1 + a2 x2 )fX1 X2 (x1 , x2 )dx1 dx2
−∞ −∞
Z +∞ Z +∞
= a1 x1 fX1 (x1 )dx1 + a2 x2 fX2 (x2 )dx2
−∞ −∞
= a1 µX1 + a2 µX2
V ar[Y ] = E[(Y − µX )2 ]
= E[(a1 X1 + a2 X2 − a1 µX1 − a2 µX2 )2 ]
= E[(a1 (X1 − µX1 ) + a2 (X2 − µX2 ))2 ]
= E[a21 (X1 − µX1 )2 + a1 a2 (X1 − µX1 )(X2 − µX2 ) + a22 (X2 − µX2 )2 ]
= a21 V ar[X1 ] + 2a1 a2 Cov[X1 , X2 ] + a22 V ar[X2 ]
Estes resultados podem ser facilmente extrapolados para uma função linear de muitas variaveis
aleatórias. Seja:
Xn
Y = ai Xi
i=1
Truncando a série no termo de primeira ordem (segunda linha da equação 2.75), e utilizando um
64
raciocínio análogo ao utilizado para demonstrar a equação (2.63), obtém-se:
o que significa que a média da função é aproximadamente igual a função das médias. Tomando a
variância da série truncada de Taylor e generalizando a equação (2.64), obtém-se:
n X
X n
∂g ∂g
V ar[Y ] ≈ Cov[Xi , Xj ]
i=1 j=1
∂Xi ∂Xj
65
2.7.1 Distribuições exatas
Seja X uma variável aleatória com FPA FX (x) conhecida. Seja uma amostra de n observações
independentes de X, (x1 , x2 , x3 , ..., xn ), representando o 1o , o 2o ,..., e o enésimo valor observado. Os
valores máximo e mínimo da amostra são, respectivamente:
yn = max[x1 , x2 , x3 , ..., xn ]
y1 = min[x1 , x2 , x3 , ..., xn ] (2.76)
Pode-se considerar que o conjunto (x1 , x2 , x3 , ..., xn ) seja uma amostra de n variável aleatórias,
identicamente distribuídas e independentes, tal que FX1 (x1 ) = FX2 (x2 ) = ... = FXn (xn ). As variáveis
aleatórias Yn e Y1 (valor máximo e mínimo) são então determinadas como:
Yn = max[X1 , X2 , X3 , ..., Xn ]
Y1 = min[X1 , X2 , X3 , ..., Xn ] (2.77)
Observa-se que se Yn , o maior valor dentre (X1 , X2 , X3 , ..., Xn ), é menor do que um determinado valor
y, então todas as variável aleatória Xi devem ser menores que y. Portanto:
e:
∂FYn (y)
fYn (y) =
∂y
n−1
= n [FX (y)] fX (y) (2.79)
As expressões (2.78) e (2.79) são as distribuições de probabilidade exatas do valor máximo de uma
amostra de tamanho n tomadas de uma população X. Esta distribuição depende do tamanho n da
amostra bem como da distribuição original de X. A figura (2-6) mostra como estas distribuições
de extremos variam com o aumento do número de amostras, para uma distribuição original com
distribuição X ∼ N (0, 1). A equação (2.78) mostra que a distribuição do máximo de uma amostra de
tamanho unitário (n = 1) é idêntica à distribuição original. Assim, o valor esperado do máximo em
uma observação é igual ao valor esperado da variável original. A medida que n aumenta, a distribuição
de máximos tende para a região da cauda superior da distribuição original.
FpHsL fpHsL
1
1
0.8 n=100
n=100 0.8
0.6 n=10 n=10
0.6
0.2 0.2
-2 -1 0 1 2 3 4 -2 -1 0 1 2 3 4
Figura 2-6: Extreme value distributions of Gaussian variable.
A distribuição exata para mínimos é obtida de maneira similar. Se Y1 , o menor valor na amostra
(X1 , X2 , X3 , ..., Xn ), é maior do que um determinado valor y, então todos os valores Xi devem ser
maiores que y. Portanto:
66
e:
fY1 (y) = n [1 − FX (y)]n−1 fX (y) (2.81)
As expressões (2.80) e (2.81) são as distribuições de probabilidade exatas do valor mínimo de uma
amostra de tamanho n tomadas de uma população X. As observações feitas em relação as equações
(2.78) e (2.79) são válidas também para (2.80) e (2.81), com a diferença que o valor mínimo esperado
diminue à medida que n aumenta.
−1 e
y = FX (1 − ) (2.83)
n
Como a equação (2.82) é monotonicamente decrescente (En decresce quando Yn aumenta, conforme
figura 2-7) temos:
P [{En < e}] = P [{Yn > y}] (2.84)
En
n
e n (1 − FX ( y ) )
y Y
−1 e
FEn (e) = P [{Yn > FX (1 − )}]
³ n ´
−1 e
= 1 − FYn FX (1 − )
n
67
Usando agora a expressão (2.78) para a distribuição acumulada de extremos, obtém-se:
h ³ e ´in
−1
FEn (e) = 1 − FX FX (1 − )
n
e n
= 1 − (1 − )
n
Tomando o limite com n → ∞, obtém-se:
ou:
FYn (y) = 1 − FEn (n(1 − FX (y)))
Finalmente, utilizando o resultado na equação (2.85) obtemos:
Derivando em relação a y:
∂[n(1 − FX (y))]
fYn (y) = exp[−n(1 − FX (y))] (2.87)
∂y
As equações (2.86) e (2.87) são as chamadas distribuições assintóticas de extremos. Estas dis-
tribuições são exatas no limite com n → ∞. Note que estas distribuições servem para determinar a
distribuição de extremos correspondente a determinada distribuição original FX (x). O interessante é
que, independentemente da forma exata da distribuição original fX (x), as distribuições assintóticas de
extremos convergem para algumas formas particulares. A forma particular para a qual determinada
distribuição de extremos converge depende apenas da cauda da distribuição original na direção do
extremo procurado. Três desta formas particulares são apresentadas na tabela abaixo. Esta classifi-
cação é válida tanto para máximos como para mínimos. As 3 formas apresentadas não são as únicas
possíveis, porém são as mais comuns.
n(1 − FX (un )) = 1
ou:
1
FX (un ) = P [{X < un }] = 1 −
n
O máximo característico un é também o valor de X tal que:
1
P [{X > un }] =
n
Verifica-se ainda que un é o valor mais provável (moda) da distribuição de extremos, fYn (y). O
máximo característico divide a distribuição fYn (y) nos seguintes percentis:
68
De forma semelhante, o mínimo característico u1 é o valor de X tal que:
1
P [{X < u1 }] =
n
O mínimo característico u1 é também a moda de fY1 (y), e divide a distribuição de mínimos nos
percentis:
69
a hipótese de que, entre todos os indivíduos em uma determinada faixa de idade, a morte leva os
indivíduos mais fracos...!
Parâmetros da distribuição:
u1 = mínimo característico da distribuição inicial X ou moda de X1 .
β = parâmetro de forma.
Quando representada em papel de Gumbel, β −1 é a inclinação da distribuição.
Funções de probabilidade:
FX (x) = 1 − Ax−β
onde A é uma constante, a distribuição dos máximos de X tende assintóticamente a uma distribuição
de Frechet. Este é o caso das distribuições de Pareto e Cauchy.
Parâmetros da distribuição:
un = máximo característico da distribuição inicial X ou moda de Xn .
β = parâmetro de forma;
Funções de probabilidade:
· ³ ´ ¸
β ³ un ´β+1 un β
fXn (x) = exp − ; −∞ ≤ x ≤ ∞
un x x
· ³ ´ ¸
un β
FXn (x) = exp − ; −∞ ≤ x ≤ ∞
x
70
O parâmetro de forma é determinado de forma iterativa através de:
³ ´
Γ 1 − β2
1 + δ2 = ³ ´
Γ2 1 − β1
Quando a cauda inferior da distribuição inicial X apresenta taxa de crescimento polinômica, como:
FX (x) = 1 − Ax−β
onde A é uma constante, a distribuição dos mínimos de X tende assintóticamente a uma distribuição
de Frechet.
Parâmetros da distribuição:
u1 = mínimo característico da distribuição inicial X ou moda de X1 .
β = parâmetro de forma;
Funções de probabilidade:
µ ¶β+1 " µ ¶ #
β
β x x
fX1 (x) = exp − ; 0≤x≤∞
u1 u1 u1
" µ ¶ #
β
x
FX1 (x) = 1 − exp − ; 0≤x≤∞
u1
Quando a cauda superior da distribuição inicial X apresenta decrescimento polinômico mas é limitada,
como:
FX (x) = 1 − A(ε − x)−β ; x ≤ ε, β > 0, A = cte
a distribuição dos máximos de X tende assintóticamente a uma distribuição de Weibull. Exemplos
deste tipo de distribuição inicial são as distribuições uniforme, triangular e gamma.
Parâmetros da distribuição:
un = máximo característico da distribuição inicial X ou moda de Xn ;
β = parâmetro de forma;
ε = limite superior da distribuição inicial X.
71
Funções de probabilidade:
µ ¶β−1 " µ ¶β #
β ε−x ε−x
fXn (x) = exp − ; −∞ ≤ x ≤ ε
ε − un ε − un ε − un
" µ ¶β #
ε−x
FXn (x) = exp − ; −∞ ≤ x ≤ ε
ε − un
Observe que com β = 1 esta distribuição se resume à distribuição exponencial. Para β = 2 tem-se a
distribuição de Rayleigh.
Determinação dos momentos:
µ ¶
1
µ = ε + (ε − un )Γ 1 +
β
· µ ¶ µ ¶¸
2 2 2 2 1
σ = (ε − un ) Γ 1 + −Γ 1+
β β
Quando a cauda inferior da distribuição inicial X apresenta decrescimento polinômico mas é limitada,
como:
FX (x) = 1 − A(ε − x)−β ; x ≥ ε, β > 0, A = cte
a distribuição dos mínimos de X tende assintóticamente a uma distribuição de Weibull.
A distribuição de Weibull para mínimos pode ser utilizada para descrever secas ou a vida de fadiga
de componentes metálicos.
Parâmetros da distribuição:
u1 = mínimo característico da distribuição inicial X ou moda de X1 ;
β = parâmetro de forma;
ε = limite inferior da distribuição inicial X.
Funções de probabilidade:
µ ¶β−1 " µ ¶β #
β x−ε x−ε
fX1 (x) = exp − ; ε≤x≤∞
u1 − ε u1 − ε u1 − ε
" µ ¶β #
x−ε
FX1 (x) = 1 − exp − ; ε≤x≤∞
u1 − ε
72
Determinação dos parâmetros:
µ−ε
u1 = ³ ´ +ε
Γ 1 + β1
β = iterativo
Apesar da relação entre a cauda da distribuição original e a distribuição assintótica de extremos cor-
respondente, não existe uma forma analítica de estabelecer os parâmetros da distribuição de extremos
a partir dos parâmetros da distribuição original. No entanto, é possivel determinar numericamente
a distribuição de extremos correspondente à distribuição original. Isto pode ser feito com base nos
extremos característicos (u1 e un ) e em um ajuste de parâmetros da distribuição de extremos apro-
priada.
Determina-se primeiramente os extremos característicos, que são função apenas do número n de
variáveis da amostra, conforme seção (2.7.3). Conforme visto acima, os extremos característicos são
o primeiro parâmetro da distribuição de extremos. Determina-se um lista de pontos da distribuição
exata de extremos, utilizando as equações (2.78) ou (2.79). Escolhe-se a distribuição de extremos
apropriada, em função do tipo de cauda da distribuição original. Em seguida, através de um ajuste
de curvas (e.g., mínimos quadrados), determina-se o valor do parâmetro de forma (β) que minimiza a
diferença entre a distribuição exata (os pontos calculados) e a distribuição de extremos procurada.
73
2.8 AJUSTE DE DISTRIBUIÇÕES ESTATÍSTICAS
Um aspecto importante do trabalho com variáveis aleatórias é o ajuste de uma determinada curva de
distribuição estatística a um histograma, obtido experimentalmente ou através de simulação de Monte
Carlo. Em muitos casos, trata-se também de ajustar uma curva de distribuição analítica a um série de
pontos, calculados numericamente, de uma curva de distribuição . Em ambos os casos, o procedimento
envolve três etapas: a seleção de um ”modelo” de distribuição estatística (hipotético), a determinação
dos parâmetros deste modelo e, finalmente, algum tipo de teste para verificar a qualidade do ajuste.
Em geral, o procedimento é ligeiramente distinto quando se ajusta uma distribuição a um his-
tograma e quando se faz um ajuste de curva a um conjunto de pontos obtidos numericamente. Ambos
serão estudados a seguir.
hipótese :
”a variável segue uma distribuição normal com parâmetros N (µ, σ)”
A tarefa então passa a ser determinar os parâmetros do modelo hipotético e verificar a qualidade
do ajuste e da hipótese de distribuição de probabilidades adotada.
No assim chamado método dos momentos (method of moments, Benjamin e Cornell, 1970), os
momentos da distribuição são aproximados pelos momentos da amostra (histograma). Para n pontos
na amostra, tem-se:
n
1X
µ ' xi
n i=1
n
1 X
σ2 ' (xi − µ)2 (2.88)
n − 1 i=1
O ajuste pode ser testado através dos chamados testes de hipótese (goodness-of-fit), como será visto
mais adiante.
No método da máxima propensão (maximum likelihood, Benjamin e Cornell, 1970), busca-se o mod-
elo de distribuição (e respectivos parâmetros) que mais provavelmente produziria (ou re-produziria) o
histograma observado. Esta comparação poder ser feita tanto em termos da função de distribuição de
probabilidades como em termos da função de probabilidades acumuladas. Para um histograma com
nb cestas (bins), a estatítica χ2 (chi-quadrado) da amostra é:
nb
X
2 (Ni − nfi )2
κ = (2.89)
i=1
nfi
74
(Zwillingner, 1996): Z ∞
Γ(p, x) 1
Pχ (p, x) = = e−t tp−1 dt (2.91)
Γ(p) Γ(p) x
onde Γ(p, x) e Γ(p) são as funções Gamma incompleta e completa. O modelo de distribuição e seus
parâmetros podem ser determinados de maneira a maximizar a medida de confidência Pχ (υ/2, κ 2 /2),
ou de maneira a minimizar a quantidade:
χ2min = |E[χ2 ] − κ 2 |
= |υ − κ 2 | (2.92)
que fornece a fração de pontos à esquerda do ponto xi , quando ordenados em ordem crescente. A
estatítica de KS é:
n
ks = max[|Fi − FX (xi )|] (2.93)
i=1
Ambos testes de hipótese para ajuste de distribuição apresentados também podem ser utilizados
para verificar modelo e parâmetros obtidos pelo método dos momentos.
x = {xi }, i = 1, ..., n
75
onde fX (x) e FX (x) são as curvas de probabilidades analíticas que se tenta ajustar aos dados.
Em analogia ao método da máxima propensão, pode-se também realizar o ajuste minimizando a
função:
χ2min = E[χ2 ] − κ 2
h R xi i2
X n m (fi +f2 i−1 ) (xi − xi−1 ) − m xi−1 fX (x)dx
= υ− R xi (2.96)
i=2
m xi−1 fX (x)dx
ou a função:
n
X 2
[m(Fi − Fi−1 ) − m(FX (xi ) − FX (xi−1 ))]
χ2min = υ − (2.97)
i=2
m(FX (xi ) − FX (xi−1 ))
onde m é um fator de multiplicação para fazer os termos nfi suficientemente grandes.
Em termos estatísticos, as expressões (2.96) e (2.97) são formalmente mais apropriadas do que
(2.95). Na prática, no entanto, nota-se poucas diferenças entre estas alternativas.
No entanto, existem expressões analíticas para aproximá-la. Estas expressões são particularmente
importantes na programação da função Φ[.].
Uma expressão analítica é:
· 2¸
z y
Φ[y] = 1 − √ exp − ; −∞≤y ≤0
2π 2
· 2¸
z y
Φ[y] = √ exp − ; 0≤y≤∞
2π 2
onde:
76
e os valores pi são parâmetros:
+0.231641900
+0.319381530
−0.356563782
p=
+1.781477937
−1.821255978
+1.330274429
Esta expressão apresenta um erro máximo ε ≤ 7.5 × 10−8 .
s · ¸
1
z = ln 2
u
p1 + z(p2 + z(p3 + z(p4 + z(p5 ))))
y = −z −
q1 + z(q2 + z(q3 + z(q4 + z(q5 ))))
s · ¸
1
z = ln
(1 − u)2
p1 + z(p2 + z(p3 + z(p4 + z(p5 ))))
y = +z +
q1 + z(q2 + z(q3 + z(q4 + z(q5 ))))
Os parâmetros pi e qi são:
−0.3222324310880 0.9934846260600 × 10−1
−1.0000000000000 0.5885815704950
p= −0.3422422088547
q=
0.5311034623660
−0.2042312102450 × 10−1 0.1035377528500
−0.4536422101480 × 10−4 0.3856070063400 × 10−2
77
78
Capítulo 3
INTRODUÇÃO À
CONFIABILIDADE
ESTRUTURAL
79
Neste capítulo, descrevemos inicialmente a maneira como os requisitos básicos de sistemas estru-
turais são formulados. Em seguida, a questão dos requisitos econômicos e sociais é retomada.
2. atingir capacidade máxima das seções, membros ou conexões, seja por ruptura ou deformação
excessiva;
1. danos locais (formação de fissuras ou trincas) que afetam a durabilidade da estrutura bem como
a aparência de membros estruturais e não estruturais;
2. dano causado por fadiga ou outros efeitos dependentes do tempo (corrosão, desgaste, fluência);
3. deformação em nível não aceitável, que afeta o uso eficiente ou a aparência de membros estru-
turais ou não estruturais, ou ainda que afeta o funcionamento de equipamentos;
Os estado limites de serviço podem ser reversíveis ou irreversíveis. Quando irreversíveis, a primeira
ultrapassagem do estado limite caracteriza a falha. Quando reversíveis, a falha pode ser caracteriza-
da quando a passagem ao estado indesejável acontecer em momento inoportuno, por período muito
prolongado, um número excessivo de vezes ou ainda qualquer combinação destes. Estados limite de
serviço devem ser definidos utilizando critérios de utilidade.
80
de falha, a fronteira entre os domínios de falha e não falha, ou a fronteira entre os estados desejável e
indesejável da estrutura:
Df = {x|g(x) ≤ 0}
Ds = {x|g(x) > 0} (3.2)
O domínio de falha Df é formado por todos os pontos do espaço amostral de X (Rn ) que levam a falha
da estrutura, conforme representado na figura (3.2). O domínio de sobrevivência Ds ou de condição
segura é o conjunto complementar a este.
Um exemplo simples mas típico é um problema envolvendo apenas duas variáveis, sendo elas
resistência (R) e solicitação (S) ou ainda capacidade (C) e demanda (D):
g(R, S) = R − S = 0
g(C, D) = C − D = 0
Em geral, a equação de estado limite e portanto os domínios de falha e não falha podem ser função
do tempo:
g(X, t) = 0
Df (t) = {x|g(x, t) ≤ 0}
Ds (t) = {x|g(x, t) > 0} (3.3)
Isto acontece quando a equação de estado limite e o modo de falha correspondente são funções
do tempo, ou quando uma ou mais variáveis do problema variam com o tempo (i.e., são processos
estocásticos).
O mesmo acontece com a variável S. Como não há confiança nos valores utilizados para determinar-se
o coeficiente de segurança central, também não existe garantia que um determinado valor λ0 seja
suficiente para garantir a segurança de uma estrutura.
81
um aumento da solicitação, em consideração à incerteza destas variáveis. Para variáveis normais, os
valores característicos são obtidos como:
rk = µR − kR σR
sk = µS + kS σ S
onde rk é a resistência característica e kR é uma constante que reflete a confiança associada com o valor
característico rk (figura 3-5).O nível de confiança associado às constantes k e aos valores característicos
assim obtidos é determinado a partir da função de distribuição cumulativa de probabilidades. Para
variáveis normais, tem-se:
Para distribuições estatísticas diferentes da normal, os valores característicos são obtidos em termos
da inversa da função de distribuição cumulativa de probabilidades e do nível de confiança pk desejado.
Sendo:
pk = P [{R > rk }] ou pk = P [{S < sk }]
tem-se:
rk = FR−1 (1 − pk )
sk = FS−1 (pk )
rk
φR = <1
µR
sk
γS = >1
µS
Fixando o nível de confiança desejado (pk ) e o valor médio, obtém-se diferentes valores característi-
cos e portanto diferentes valores dos coeficientes φR e γ S em função da distribuição de probabilidades.
As tabelas abaixo mostram os coeficientes φR e γ S para diferentes distribuições estatísticas e para
diferentes valores do coeficiente de variação, para uma confiança de 95%. As tabelas ilustram como
as distribuições de probabilidades afetam os coeficientes φR e γ S .
Considere agora que os valores característicos rk e sk foram determinados para uma determinada
confiança (pk = 0.95 para confiança de 95%). Agora existe confiança (segurança) em relação aos
82
Tabela 3.3: Coeficientes de majoração de carregamentos γ S para confiança pk = 0.95 (95%).
Distribuição γS
C.O.V. 0.1 0.2 0.3 0.4 0.5
Normal 1.164 1.329 1.493 1.658 1.822
Lognormal 1.172 1.358 1.552 1.750 1.945
Gumbel 1.187 1.373 1.560 1.746 1.933
Frechet 1.187 1.367 1.534 1.681 1.809
Weibull 1.142 1.305 1.489 1.689 1.903
Gamma 1.170 1.350 1.541 1.752 1.938
valores característicos rk e sk a utilizar no projeto. No entanto, como esta segurança não é de 100%,
ainda pode ser necessário adotar um coeficiente de segurança (parcial) adicional:
rk φ µ
λk = = R R (3.5)
sk γ S µS
Este coeficiente, juntamente como os coeficientes φR e γ S , são chamados de coeficientes de segurança
parciais. Seguramente, o coeficiente λk poderá ser menor do que λ0 , mas sua utilização ainda pode
ser necessária.
A equação (3.5) pode ser usada para estabelecer uma relação com o coeficiente de segurança central:
φR µR φ
λk = = R λ0
γ S µS γS
ou:
γS
λ0 = λk
φR
Se os valores característicos rk e sk forem entendidos como valores nominais ou valores de projeto,
então os coeficientes parciais de segurança aqui apresentados se assemelham aos coeficientes adotados
em normas técnicas. Importante observar que os coeficientes φR e γ S são determinados em função da
incerteza (ou da distribuição de probabilidades) das variáveis R e S. Já o coeficiente parcial λk pode
ser utilizado para impor segurança adicional em função do tipo de uso da estrutura, ou em função da
gravidade do evento falha.
Observa-se que a escolha do nível de confiança (segurança) e do coeficiente λk a ser utilizado é
subjetiva. Portanto, os fatores de segurança parciais também não forneçem uma medida de violação
de estados limites. Apenas a probabilidade de falha, calculada como Pf = P [{R < S}], pode ser
considerada como uma medida de violação de estados limites.
Ainda assim, os fatores parciais de segurança são úteis e muito utilizados em normas técnicas. Em
normas técnicas específicas, é possível converter probabilidade de falhas em coeficientes parciais de
segurança. De fato, isto tem acontecido na revisão e calibração de normas de projeto, como será visto
mais adiante.
Pf = P [{R ≤ S}]
= P [{R − S ≤ 0}] (3.6)
83
Z Z
Pf = P [(x, y) ∈ Df ] = fRS (r, s)drds
Df
onde:
fS (s) = função marginal de densidade de probabilidade da solicitação;
FR (s) = função marginal de distribuição cumulativa de probabilidades da resistência.
O integrando da expressão (3.7) é representado na figura (3-7). A probabilidade de falha vem a
ser a àrea sob a curva fS (s)FR (s). Esta área é proporcional, mas não idêntica, à area de interferência
entre as distribuições de R e S, mostrada (hachurada) na figura (3-4). Por esta semelhança, este
problema é também conhecido na literatura como o problema de interferência entre populações.
A figura (3-4) ilustra dois procedimentos que podem ser adotados em projeto para diminuir a
probabilidade de interferência entre as distribuições, ou seja, para diminuir a probabilidade de falha
da estrutura. O efeito dos coeficientes de segurança é o de afastar as médias das distribuições, e cor-
responde a um super-dimensionamento da estrutura. A outra alternativa é diminuir os desvio-padrão
das variáveis R e S. O desvio-padrão da resistência usualmente está relacionado com a variabilidade de
propriedades do material, e pode ser diminuido através do uso de materiais de melhor qualidade, com
propriedades mais homogêneas. É mais difícil controlar ou diminuir o desvio-padrão da solicitação.
Margem de segurança
O problema fundamental de confiabilidade também pode ser resolvido através da variável margem de
segurança (M ):
M =R−S (3.8)
Valores negativos da margem de segurança correspondem à falha da estrutura, enquanto que valores
positivos indicam segurança. Um valor nulo da margem de segurança corresponde à condição de
estado limite. Se R e S são variáveis aleatórias, M será também uma variável aleatória. Neste caso,
pode-se calcular a probabilidade de falha a partir de M :
Z 0
Pf = P [{M ≤ 0}] = fM (m)dm = FM (0) (3.9)
−∞
µM = µR − µS
q
σM = σ 2R + σ 2S (3.10)
A variável M pode ser transformada em uma variável normal padrão Y (com média nula e desvio-
padrão unitário), fazendo:
84
M − µM
Y = (3.11)
σM
Esta transformação permite avaliar probabilidades associadas à variável M através da função de
distribuição cumulativa normal padrão, Φ(). A probabilidade de falha resulta:
Pf = P [{M ≤ 0}]
· ¸
µM
= P {Y ≤ − }
σM
· ¸
µ
= Φ − M (3.12)
σM
Observa-se que na variável Y , que possui média nula e desvio-padrão unitário, obtém-se uma
medida da probabilidade de falha. Esta é uma medida geométrica, pois corresponde à distância entre
o ponto m = 0 e a origem (média) da distribuição de Y, conforme a figura (3-9). Esta medida é
chamada de índice de confiabilidade, representada pela letra grega β (beta) e dada pela razão µσM
M
:
µM µ − µS
β≡ = p R2 (3.13)
σM σ R + σ 2S
Nota-se que a expressão (3.13) é estritamente válida apenas para v.a.s R e S normais.
Incorporando os resultados anteriores, obtemos:
µ ¶
µ
Pf = Φ − M = Φ (−β) (3.14)
σM
Nesta expressão, observa-se que o índice de confiabilidade β está diretamente relacionado à proba-
bilidade de falha. O índice de confiabilidade β é extrema importância na confiabilidade estrutural. Os
resultados aqui apresentados serão amplamente utilizado nos próximos capítulos, pois permites obter
a solução de problemas envolvendo um número qualquer de variáveis aleatórias.
85
Em problemas envolvendo um único carregamento, estaremos interessados no máximo valor que
este carregamento atinge ao longo de determinado período de utilização ou ao longo da vida útil
da estrutura. Conforme verificado no capítulo 7, o valor máximo de um processo estocástico em
determinado intervalo de tempo é uma variável aleatória. Isto permite converter um problema de
confiabilidade estrutural dependente do tempo em um problema independente do tempo.
Em geral, mais de um carregamento atua simultâneamente em uma estrutura. Em alguns ca-
sos, pode-se utilizar técnicas de combinação de carregamentos para determinar um carregamento
equivalente. Isto pode ou não permitir a conversão para um problema de confiabilidade estrutural
independente do tempo.
Neste material, representamos um carregamento estrutural por Q(t), de maneira coerente com a
nomenclatura adotada para processos estocásticos, mas já diferenciando carregamentos das variáveis
de resistência (que são representadas por R). Em problemas envolvendo mais de um carregamento,
estes são representados por um vetor de processos estocásticos Q(t).
1. a resistência não muda ao longo do tempo, ou a variação é tão pequena que pode ser desprezada;
Neste simples exemplo, R0 é a variável aleatória que representa a resistência inicial. Se a taxa de
variação A é também uma variável aleatória, então diferentes curvas de variação da resistência com
o tempo são obtidas para cada realização A = a desta taxa. A resistência R(t), neste caso, é o
que se chama de um processo estocástico parametrizado. As funções de probabilidade e os momentos
estatísticos do processo R(t) mudam ao longo do tempo, mas toda a incerteza deste processo é descrita
por duas variáveis aleatórias, R0 e A.
Exemplos de variação paramétrica de resistência em problemas estruturais são taxas de corrosão
ou de propagação de trincas representadas por variáveis aleatórias.
86
está fora do escopo deste texto. O resultado, no entanto, é uma função de densidade de probabilidades
que varia com o tempo, chamada de função de densidade de probabilidades transitória (Transition
Probability Density), fR (r, t).
Exemplos de variação estocástica de resistência estrutural são taxas de corrosão ou de propagação
de trincas representadas por processos estocásticos.
Em geral, a variação (estocástica) da resistência com o tempo é lenta em comparação com a
variação dos processos de carregamento. Isto significa que, em alguns casos, é possível representar um
processo de variação como o descrito na equação (3.16) por um processo aproximado como na equação
(3.15).
Como pode-se imaginar, a solução de problemas de confiabilidade é muito mais simples quando a
variação de resistência é paramétrica.
Note que o estado limite é em geral um grandeza escalar, ainda que isto não esteja explicito em uma
equação da forma g(R, S, t) = 0.
É importante observar ainda que na solução de problemas multi-dimensionais, não é necessário (e
muitas vezes é impossível) colocar a equação de estado limite na forma escalar explicita da equação
(3.18).
87
encontrar problemas de confiabilidade dependente do tempo nos quais a resposta mecânica é tipica-
mente estática, assim como temos problemas de confiabilidade independentes do tempo nos quais a
resposta mecânica é dinâmica.
O caso de independência conjunta do tempo é trivial, e envolve uma resposta estrutural estática
em um problema caracterizado por variáveis aleatórias.
Um processo estocástico de carregamento que varia lentamente com o tempo dá origem a um
problema de confiabilidade estrutural dependente do tempo onde a resposta da estrutura é estática.
Um exemplo típico deste tipo de carregamento é a carga útil em prédios, que varia aleatóriamente
conforme as idas e vindas dos inquilinos.
A resposta transiente de uma estrutura sujeita a um carregamento de impacto representado por
uma variável aleatória é um exemplo de problema de confiabilidade independente do tempo no qual a
resposta estrutural é dinâmica.
Por fim, uma estrutura sujeita a carregamentos estocásticos representa um problema dinâmico
de confiabilidade estrutural dependente do tempo. Este tipo de problema também é chamado de
problema de vibrações aleatórias.
Como pode ser imaginado, a solução de problemas de confiabilidade estrutural dependente do
tempo, i.e., envolvendo processos estocásticos, é mais trabalhosa do que a solução de problemas
envolvendo apenas variáveis aleatórias. Na próxima seção, a fomulação de um problema estrutural
típico, de confiabilidade dependente do tempo, é apresentada.
g(R, S, t) = 0
Conforme vimos, os domínios de falha e sobrevivência neste caso também são funções do tempo:
Em geral, não estamos interessados no particular instante t em que a falha ocorre, mas sim na primeira
ocorrência do evento S(t) > R(t). Falamos, neste caso, em um modelo de falha à primeira sobrecarga,
que será estudado no capítulo 8.
Para um determinado tempo t, uma probabilidade de falha instantânea pode ser calculada integrando-
se a função conjunta de distribuição de probabilidades sobre o domínio de falha:
Z
Pfinstantânea (t) = fRS (r, s, t)drds (3.21)
Df (t)
Esta é a probabilidade de que uma sobrecarga ocorra exatamente no instante t. É importante observar
88
que tal probabilidade de falha não pode ser integrada no tempo! Basta observar que, para qualquer
valor desta probabilidade, existe um tempo T maior que zero tal que a probabilidade resultante seria
maior do que um! Isto ocorre porque as probabilidades de ocorrência de uma sobrecarga em dois
intantes distintos t1 e t2 são eventos dependentes, i.e., uma sobrecarga só pode ocorrer em um instante
t2 > t1 se não tiver ocorrido no instante t1 .
Quando o processo de carregamento S(t) é estacionário e não existe variação da resistência ao
longo do tempo, o problema de confiabilidade é estacionário, o que significa que as probabilidades que
caracterizam o problema não mudam ao longo do tempo. A variação da resistência com o tempo e/ou
um carregamento não estacionário tornam o problema de confiabilidade não-estacionário.
A tabela 3.4 ilustra os diferentes métodos de solução de problemas de confiabilidade dependente
do tempo.
Estes métodos serão estudados no capítulo 8. A tabela mostra que vários métodos de solução de
problemas dependentes do tempo fazem uso de soluções envolvendo apenas variáveis aleatórias. Em
outras palavras, a solução dos problemas dependentes do tempo exige a solução de um ou mais prob-
lemas independentes do tempo. Como a solução de problemas envolvendo apenas variáveis aleatórias
é também mais simples, estes problemas serão estudaremos primeiramente.
Df = {x|g(x) ≤ 0}
Ds = {x|g(x) > 0} (3.23)
89
Tabela 3.5: Métodos de solução de problemas de confiabilidade independente do tempo
Nível de Método de Distribuições Funções de es- Incerteza em Resultado
análise cáculo de probabili- tado limite parametros
dade
1: Normas Calibração Não são uti- Usualmente Fatores arbi- Fatores de se-
técnicas com técnicas lizadas linear trários gurança parci-
nível 2 ou 3 ais
2: Métodos Algebra de Apenas dis- Linear, ou Incluída como Probabilidade
de segundo segundo tribuição aproximada VA Normal de falha
momento momento Normal como tal nominal Pf N
3: Métodos Transformação Distribuição Linear, ou Incluída como Probabilidade
”exatos” normal equiv. aproximada VA de falha Pf
como tal
Integração Utilização ple- Qualquer for-
numérica e na ma
simulação
4: Métodos de Qualquer mét. mais inform. Custo mínimo
decisão acima, de custos
90
3.8 FIGURAS
PARÂMETROS OU MODELO
VARIÁVEIS DO COMPORTAMENTAL
PROBLEMA SIMPLIFICADO
TEORIA DE
PROBABILIDADES MODELO MATEMÁTICO
(def. axiomática) (eq. diferenciais e algébricas)
SOLUÇÃO MODELO
ANALÍTICA NUMÉRICO
SOLUÇÃO
NUMÉRICA
TOMADA DE DECISÕES NA
PRESENÇA DE INCERTEZAS RESPOSTA DO SISTEMA
(interpretação Bayesiana)
TOMADA DE DECISÕES
MÓDULO DE CONFIABILIDADE
MÓDULO MECÂNICO
Definição do valor dos parâmetros
de projeto (ponto X = x) onde a
equação de estado limite (resposta Determina a resposta da
mecânica) deve ser avaliada estrutura:
• esforços;
• deslocamentos;
Avaliação da equação de estado • tensões;
limite:
g ( x) = ? • deformações;
sim
Mais pontos necessários?
não
91
f X (x)
x2
g (x) = 0
g (x) ≤ 0
domínio de falha
g (x) > 0
domínio de segurança
x1
0.5
0.4 f S (s) f R (r )
fRHrL,fSHsL
0.3
0.2
0.1
Interferência
0 2 4 6 8 10
Solicitaç ão e Resistê ncia
0.5 0.5
0.4 0.4
0.3 0.3
fSHsL
fRHrL
0.2 0.2
sk = µ S + kSσ S rk = µ R − k Rσ R
0.1 0.1
0 2 4 6 8 10 0 2 4 6 8 10
Solicitaç ão Resistê ncia
92
2
1.75 λk
λS
1.5
λk, λR, λS
1.25
0.75
λR
0.5
0.5 0.6 0.7 0.8 0.9 1
Ní vel de Confianç a
Figura 3-6: Variação dos fatores de segurança parciais com o nível de confiança pk para problema com
S ∼ N (4, 1) e R ∼ N (8, 1).
1
1.2
0.8
fSHxLFRHxL 103
1
FRHxL,fSHxL
0.6 0.8
0.6
0.4
0.4
0.2 0.2
0 2 4 6 8 10 0 2 4 6 8 10
Solicitaç ão e Resistê ncia x
f M (m)
area = Pf
93
fY ( y )
area = Pf
β = µM / σ M
y
r, s
f R ( r , t0 )
r (t ) = realização de R (t )
f S ( s, t ) s ( t ) = realização de S (t )
Figura 3-10: Problema de confiabilidade estrutural típico envolvendo carregamento estocástico e vari-
ação da resistência no tempo.
r, s
f R0 ( r ) realizações de R(t )
r1 (t )
r2 (t )
f S ( s, t ) realização de S (t )
r3 (t )
94
CARREGAMENTO Q(t)
Resposta estrutural
Comparação a nível
Solicitação em termos de Resistência de
de elemento
esforços internos elementos estruturais
S(t) = efeito de carregamento[Q(t)] R(t) = função de resistência [R,t]
Resposta estrutural
Comparação a nível
Somatório de deformações Deslocamento
de estrutura
ao longo da estrutura crítico
(deslocamentos)
RESISTÊNCIA R
Figura 3-12: Níveis de análise em que a comparação solicitação x resistência pode ser feita.
95
96
Capítulo 4
MÉTODOS DE
TRANSFORMAÇÃO
A solução de problemas de confiabilidade estrutural envolvendo variáveis aleatórias, tal qual formulado
na equação (3.24), envolve a determinação ou uma aproximação da função conjunta de densidade de
probabilidades, fX (x), bem como aproximações do domínio de integração. Os diferentes métodos de
solução correspondem a diferentes níveis destas aproximações.
Em geral, não se possui observações que permitam determinar diretamente a função conjunta de
densidades fX (x) das variáveis aleatórias de um problema. Isto significa que esta função deve ser
construída com base na informação existente, o que na maioria dos problemas se limita à informações
sobre as funções de distribuição marginais, e em alguns casos ao coeficiente de correlação entre pares
de variáveis.
No método de primeira ordem e segundo momento ou FOSM - First Order Second Moment -
a equação de estado limite é aproximada por uma função linear, e a informação estatística para
construção da função conjunta de distribuição fX (x) se limita aos momentos de segunda ordem (média
e desvio-padrão). Esta representação em segundo momento é equivalente a assumir todas as variáveis
do problema independentes e com distribuição Gaussiana. Tal hipótese pode ser bastante limitante
na solução de problemas práticos. Ainda assim, o estudo do método de segundo momento se justifica
pelo fato de apresentar os principais elementos utilizados nos demais métodos de transformação.
No método de confiabilidade de primeira ordem ou FORM - First Order Reliability Method -
toda a informação estatística a respeito das variáveis aleatórias do problema é utilizada. Isto inclui
distribuições marginais não Gaussianas bem como os coeficientes de correlação entre pares de variáveis.
O domínio de integração na equação (3.24) ainda é aproximado por uma função linear. O método
de confiabilidade de segunda ordem ou SORM - Second Order Reliability Method - utiliza a mesma
informação estatística para construção da função conjunta de densidades, mas aproxima a equação de
estado limite por uma equação de segundo grau.
Neste capítulo, estudaremos inicialmente o método de segundo momento (FOSM), e em seguida
os métodos de primeira e de segunda ordem (FORM e SORM).
Xi − µXi
Yi = (4.1)
σ Xi
A equação (4.1), conhecida como transformação de Hassofer e Lind, transforma um conjunto de var-
iáveis Gaussianas X, com média e desvios-padrão quaisquer, em um conjunto Y de variáveis aleatórias
Gaussianas com média nula e desvio padrão unitário. A função conjunta de distribuição de probabil-
97
idades fY (y) é chamada de distribuição Gaussiana padrão multi-variável ou multi-dimensional:
· ¸
1 1 2
φn (y) = exp − kyk
(2π)n/2 2
p
onde kyk = yT · y é a norma Euclidiana do vetor y. Esta distribuição possui importantes pro-
priedades de simetria e decaimento exponencial em relação à origem, que são exploradas na solução
via FOSM e FORM..
m(y1 , y2 ) = r − s = y1 σ R + µR − y2 σ S − µS (4.2)
Fazendo m(y1 , y2 ) = 0 e isolando y2 na expressão (4.2), obtém-se:
y1 σR + µR − µS
y2 = (4.3)
σS
O quadrado da distância entre um ponto qualquer (y1 , y2 ) e a origem do espaço normal padrão Y
é d2 = y12 + y22 . Derivando em relação a y1 e igualando a zero, obtém-se a condição de mínimo:
∂y2
2y1 + 2y2 = 0
∂y1
σR
2y1 + 2y2 = 0
σS
Utilizando a equação (4.3), obtém-se a coordenada y1∗ do ponto sobre a equação m(y1 , y2 ) = 0
mais próximo da origem:
σR
y1∗ = −y2
σS
σ R (µR − µS )
= −
σ2R + σ 2S
Reunindo os dois resultados, temos as coordenadas do ponto sobre m(y1 , y2 ) = 0 mais próximo da
origem:
(µ − µS )
(y1∗ , y2∗ ) = R (−σ R , σS ) (4.4)
σ 2R + σ 2S
Substituindo este resultado em d2 = y12 + y22 e tomando a raiz, obtém-se uma expressão para a mínima
distância entre a equação m(y1 , y2 ) = 0 e a origem do espaço normal padrão Y (veja figura 4-2):
µ − µS
dmin = p R2 (4.5)
σR + σ 2S
Observa-se que este resultado é idêntico à expressão do índice de confiabilidade β, obtida na
equação (3.14). Pode-se generalizar este resultado dizendo que o índice de confiabilidade corresponde
à mínima distância entre a equação de estado limite e a origem do espaço normal padrão:
98
β = dmin (4.6)
Como a probabilidade de falha é calculada a partir do índice de confiabilidade:
Pf = Φ(−β) (4.7)
verifica-se que o índice de confiabilidade β é uma medida geométrica da probabilidade de falha. Este
resultado pode ser utilizado para formular uma definição do índice de confiabilidade β:
Este resultado é muito importante, pois permite que problemas de confiabilidade independente do
tempo sejam resolvidos utilizando algoritmos de otimização.
∇g(y)
α= (4.8)
k∇g(y)k
onde o vetor gradiente:
½ ¾T
∂g ∂g ∂g
∇g(y) = , , ...,
∂y1 ∂y2 ∂yn
é constante (função linear).
O ponto de projeto y∗ é o ponto sobre a equação de estado limite mais próximo da origem do
espaço Y. Neste ponto, o gradiente da equação de estado limite se projeta sobre a origem, de forma
que:
y∗ = −αβ (4.9)
99
onde β é a distância entre y∗ e a origem do espaço Y. As coordenadas do hiper-plano no espaço Y
podem ser escritas como:
n
X
g(y) = β + αi yi = 0 (4.10)
i=1
obtém-se: n
X
g(x) = b0 + bi xi = 0
i=1
que também é uma função linear em x. Tomando o valor esperado da função g(X):
n
X
E[g(X)] = b0 + bi µXi = β
i=1
E[g(X)] β
p = =β (4.11a)
V ar[g(X)] 1
é idêntico ao índice de confiabilidade β calculado a partir de g(y). Portanto, o valor do indice
de confiabilidade β independe do domínio de solução. Em geral, esta observação só é válida para
equações de estado limite lineares.
onde d é a distância entre o ponto y e a origem. Este é um típico problema de otimização com
restrições. Utilizando um multiplicador de Lagrange λ, obtém-se um problema de otimização sem
restrições. O Lagrangeano deste problema é:
100
1
minimizar: L(y,λ) = (yT · y) 2 + λg(y) (4.13)
Um ponto estacionário de (4.13) é obtido derivando-se L(y,λ) em relação a y e a λ igualando todos
os termos a zero:
∂L
= yd−1 + λ∇g(y) = 0 (4.14)
∂y
∂L
= g(y) = 0 (4.15)
∂λ
A expressão (4.15) é satisfeita automaticamente. A equação (4.14) leva as coordenadas do ponto
estacionário yest :
yest = −λd∇g(y) (4.16)
Assumindo que este ponto de estacionariedade seja um ponto de mínimo (o ponto de projeto y∗ ), e
substituindo (4.16) em (4.12), obtém-se:
−1/2 −1
λ = ±(∇g T ·∇g) = ± k∇gk
o que, substituído em (4.16) leva a:
∇g
dmin = − · y∗ = −αT · y∗ (4.17)
k∇gk
A seguir, mostramos que esta distância mínima vem a ser o índice de confiabilidade β, obtido
através de uma linearização da equação de estado limite no ponto de projeto.
Com uma expansão da equação de estado limite g(y) em série de Taylor em torno de um ponto
qualquer yp , limitada aos termos de primeira ordem, obtém-se:
Xn ¯
∂g(y) ¯¯
ge(y) = g(y )+p
¯ · (yi − yip ) (4.18)
i=1
∂yi y=y p
Xn ¯
∂g(y) ¯¯
g (y)] = g(yp ) −
E[e ¯ · yip
i=1
∂y i y=y p
Se o ponto yp está localizado sobre a equação de estado limite (g(yp ) = 0), obtém-se:
g (y)] = −∇g T · yp
E[e
onde ∇g é o gradiente da equação de estado limite. Tomando a variância da expressão (4.18), obtém-
se:
n
à ¯ !2
X ∂g(y) ¯¯
V ar[e
g (y)] = = ∇g T · ∇g (4.19)
i=1
∂yi ¯y=yp
E[e
g (y)] ∇g T · yp
β= 1 = − = −αT · yp (4.20)
(V ar[e
g (y)]) 2 (∇g T · ∇g)1/2
Este resultado é identico à equação (4.17) para yp = y∗ . Portanto, a mínima distância entre o
ponto de projeto e a origem corresponde ao índice de confiabilidade para a equação de estado limite
linearizada, desde que a mesma seja linearizada no ponto de projeto.
Conforme visto, o ponto de projeto é também o ponto sobre o domínio de falha com maior proba-
bilidade de ocorrência, o que significa que o maior conteúdo de probabilidades do domínio de falha está
101
na vizinhança deste ponto. Sendo assim, uma linearização da equação de estado limite neste ponto
minimiza o erro cometido ao se calcular a probabilidade de falha em termos da equação linearizada.
Em resumo, a solução de problemas envolvendo equações de estado limite não lineares evolve a busca
pelo ponto de projeto e a aproximação da equação de estado limite por um hiper-plano centrado neste
ponto. Sendo β a mínima distância entre a equação de estado limite e a origem do domínio normal
padrão, uma estimativa de primeira ordem da probabilidade de falha é obtida como:
O algoritmo conhecido como algoritmo de Hassofer, Lind, Rackwitz e Fiessler, ou HLRF, foi desen-
volvido específicamente para solução do problema de otimização em confiabilidade estrutural (Hasofer
e Lind, 1974, Rackwitz e Fiessler, 1978). Sua fórmula recursiva está baseada na aproximação de um
ponto qualquer y à superfície g(y) = 0 e na perpendicularização entre o vetor y e a superfície g(y) = 0.
Seja yk um ponto inicial qualquer, mesmo fora da superfície de falha, mas candidato a aproximar
o vetor perpendidular a g(y) = 0 passando pela origem. No ponto yk , uma expansão da equação de
estado limite em série de Taylor com termos de primeira ordem leva a:
102
onde ∇g(yk ) é o gradiente da equação de estado limite (no domínio normal padrão), avaliado no
ponto yk . Um novo ponto yk+1 é encontrado sobre a equação linearizada, de forma que ge(yk+1 ) = 0,
conforme equação (4.22). Seja
∇g(yk )
αk = (4.23)
k∇g(yk )k
o vetor de cossenos diretores da equação
q de estado limite avaliado no ponto yk , e β k o valor inicial
T
do índice de confiabilidade (β k = yk ·yk ). Da equação (4.9) temos yk = −αk β k . Substituindo na
equação (4.22), obtém-se:
∇g(yk )T · αk
αTk · αk = =1
k∇g(yk )k
Portanto:
∇gy (yk )T · αk
∇g(yk )T · yk+1 = − ∇g(yk )T · (αk β k ) − g(yk )
k∇g(yk )k
Desta expressão pode-se eliminar a pré-multiplicação pela transposta do gradiente:
αk
yk+1 = − (αk β k ) − g(yk )
k∇g(yk )k
Portanto, o novo ponto pode ser encontrado como:
· ¸
g(yk )
yk+1 = −αk β k + (4.25)
k∇g(yk )k
Na expressão (4.25), o termo entre colchetes representa a nova aproximação do índice de confia-
bilidade, ou β k+1 . Esta expressão é utilizada de forma iterativa, arbitrando-se um ponto inicial yk
qualquer, até atingir a convergência em y ou em β. Note que esta expressão depende de αk , de β k ,
do gradiente ∇g(yk ) e do valor da função no ponto k, g(yk ). A expressão (4.25) é apropriada para
uma busca manual pelo ponto de projeto, pois fornece a variação no índice de confiabilidade de uma
iteração para a próxima.
Uma expressão alternativa é obtida da equação (4.24), pós-multiplicando ambos os termos à direita
da igualdade pelo termo unitário αTk · αk :
£ ¤
∇g(yk )T · yk+1 = ∇g(yk )T · yk − g(yk ) αTk · αk
∇g(yk )T · yk − g(yk )
= 2 ∇g(yk )T · ∇g(yk )
k∇g(yk )k
O termo entre parenteses é um escalar, de forma que a pré-multiplicação pela transposta do gradiente
pode ser eliminada, resultando:
∇g(yk )T · yk − g(yk )
yk+1 = 2 ∇g(yk ) (4.26)
k∇g(yk )k
Esta expressão envolve o ponto yk , o gradiente e o valor da função neste ponto, sendo talvez mais
apropriada para programação.
O algoritmo de Hassofer, Lind, Rackwitz e Fiessler (HLRF) aqui apresentado é de longe o algoritmo
mais utilizado para encontrar o ponto de projeto em problemas de confiabilidade estrutural. No
entanto, não existe garantia de convergência do algoritmo, nem garantia de que o ponto encontrado
¡ ¢1/2
seja o ponto de mínimo da função β = yT ·y . Uma verificação que pode ser feita na prática é
arbitrar-se diferentes pontos iniciais, verificando se o algoritmo converge para o mesmo ponto.
103
Algoritmo HLRF melhorado
O algoritmo HLRF pode ser melhorado através de um ajuste do passo. Para tanto, determina-se
inicialmente uma direção de busca fazendo:
∇g(yk )T · yk − g(yk )
dk = yk+1 − yk = · ∇g(yk ) − yk (4.27)
k∇g(yk )k2
yk+1 = yk + λk dk
Como este problema é difícil de resolver, é substituído por outro onde o passo λ é tal que a função
mérito não é minimizada mas reduzida suficientemente. A regra de Armijo (Luenberger, 1986) pode
ser utilizada:
kyk
c> (4.28)
k∇g(y)k
2. ela atinge um mínimo no ponto de projeto desde que observada a mesma restrição em c.
Estas duas propriedades são suficientes para assegurar convergência incondicional do algoritmo
(para prova ver Zhang e Kiureghian, 1997). Um sumário do algoritmo é apresentado a seguir:
∇g(yk ) · yk
1− <² e |g(yk )| < δ
k∇g(yk )k kyk k
∇g(yk )T · yk − g(yk )
dk = 2 · ∇g(yk ) − yk
k∇g(yk )k
104
caso contrário
kyk k
ck = γ
k∇g(yk )k
5. Busca linear
λk = max[bi | m(yk + bi dk ) − m(yk ) ≤ −abi k∇g(yk )k2 ]
i∈N
6. Atualização do ponto y :
yk+1 = yk + λk dk
1
σ X1 0 ... 0 σ X1 0 ... 0
0 0
σ X2 ... 0
1
... 0
D=
...
D−1 = σ X2
... ... ... ... ... ... ...
0 0 ... σ Xn 1
0 0 ... σ Xn
105
a transformação de Hassofer-Lind pode ser escrita de forma matricial como:
y = D−1 · {x − M}
x = D·y+M (4.30)
Conforme verificaremos adiante, muitas vezes é conveniente trabalhar com matrizes Jacobianas
para facilitar estas transformações. Os termos destas matrizes são definidos como:
· ¸
∂yi
Jyx =
∂xj i=1,...,n; j=1,...,n
· ¸
∂xi
Jxy =
∂yj i=1,...,n; j=1,...,n
Jyx = D−1
Jxy = D (4.31)
y = Jyx · {x − M}
x = Jxy · y + M (4.32)
No contexto do método FOSM, não existe benefício aparente em trabalhar com matrizes Jacobianas
para realizar as transformações necessárias. Estes benefícios aparecerão mais adiante, no contexto do
FORM.
Como as equações de estado limite são escritas no domínio de projeto X, os vetores gradiente são
também avaliados neste domínio. O vetor gradiente em Y é obtido utilizando a regra da cadeia:
½ ¾
∂g
∇g(y) =
∂yi i=1,...,n
X n
∂g ∂xi
=
∂xi ∂yj
j=1
i=1,...,n;
T
= (Jxy ) · ∇g(x) (4.33)
106
4. avaliação de g(xk );
5. cálculo do gradiente:
a. cálculo das derivadas parciais de g (x) no domínio de projeto X;
b. transformação do gradiente para Y;
c. cálculo dos fatores de sensibilidade α(yk ).
Observe que as matrizes Jacobianas não mudam ao longo do processo iterativo e portanto só
precisam ser calculadas ao início da solução.
107
4.2 FORM - MÉTODO DE CONFIABILIDADE DE PRIMEIRA
ORDEM
No método de segundo momento (FOSM) a informação estatística a respeito das variáveis aleatórias
do problema se limita aos momentos de primeira e segunda ordem. Como vimos, isto equivale a
considerar todas as variáveis do problema com distribuição normal. O método de primeira ordem ou
FORM - First Order Reliability Method - permite incorporar à análise as funções de distribuição de
probabilidades bem como a correlação entre as variáveis aleatórias do problema.
O método FORM utiliza a maior parte dos resultados apresentados para o FOSM. Além disto, o
FORM envolve a construção de uma função conjunta de distribuição de probabilidades, fX (x) , bem
como uma transformação desta para o domínio normal padrão Y. A função conjunta de distribuição
de probabilidades fX (x) é construída com base na informação existente, que na maior parte dos casos
se limita às funções de distribuição marginais e a coeficientes de correlação entre pares de variáveis
aleatórias. A construção da função conjunta de probabilidades é feita levando em consideração a
facilidade de transformação da mesma para o domínio normal padrão. Esta transformação envolve a
eliminação da correlação entre variáveis aleatórias e o cálculo de variáveis normais equivalentes, como
será visto a seguir.
108
Tal transformação deve preservar o conteúdo de probabilidade correspondente a um ponto x0
quando mapeado em um ponto y0 no domínio Y :
FX (x0 ) = FY (y0 )
Uma transformação teórica que permite o mapeamento do domínio original X para o domínio Y é
a transformação de Rosenblatt (Rosenblatt, 1969). Esta transformação é obtida fazendo:
Φ[y1 ] = F1 (x1 )
Φ[y2 ] = F2 (x2 |x1 )
..
.
Φ[yn ] = Fn (xn |x1 , x2 , ..., xn−1 ) (4.35)
As funções de probabilidade condicional podem ser obtidas a partir da distribuição conjunta através
de uma generalização das equações (2.51 ou 2.52):
f (x1 , x2 , ..., xi )
f (xi |x1 , x2 , ..., xi−1 ) = (4.37)
f (x1 , x2 , ..., xi−1 )
R xi
−∞
f (x1 , x2 , ..., xi−1 , u)du
F (xi |x1 , x2 , ..., xi−1 ) = (4.38)
f (x1 , x2 , ..., xi−1 )
Conforme comentado, nos problemas práticos a função de densidades conjunta fX (x) dificilmente
é conhecida, o que torna o uso da transformação de Rosenblatt difícil. A importância desta transfor-
mação é mais teórica do que prática.
109
uma segunda equação. O critério para estabelecer esta segunda equação não é universal, mas uma
condição natural é:
neq ∗
fXi
(xi ) = fXi (x∗i ) (4.40)
x∗i − µneq
Xi
zi∗ = (4.41)
σ neq
Xi
e:
· µ neq ¶¸
1 1 x∗i − µXi
fXi (x∗i ) = √ exp −
σ neq
Xi 2π 2 σ neq
Xi
φ(zi∗ )
= (4.43)
σ neq
Xi
Da equação (4.43) obtém-se uma expressão para o desvio padrão da distribuição normal equiva-
lente:
φ (zi∗ )
σ neq
Xi = (4.45)
fXi (x∗i )
e, finalmente, da equação (4.41) obtém-se uma expressão para a média da distribuição normal equiv-
alente:
µneq ∗ ∗ neq
Xi = xi − zi σ Xi (4.46)
Note que esta transformação é realizada para cada uma das distribuições marginais, e é válida para
um ponto x∗ . Desta forma, a transformação deve ser refeita à medida que o algoritmo de busca do
ponto de projeto avança e o ponto x∗ muda. O procedimento de aproximar a cauda da distribuição
original pela cauda de uma distribuição normal equivalente é conhecido na literatura como princípio
da aproximação normal (Principle of normal tail approximation; Ditlevsen, 1981).
A figura (4-5) ilustra as distribuições normais equivalentes a uma distribuição uniforme X ∼
U (−1, 1) nos pontos x = 0, x = 0.7 e x = 0.9. Perceba como, à medida que o ponto de transformação
se aproxima do limite superior (x = 1), a distribuição Gaussiana equivalente se torna mais estreita.
A transformação de X → Z também pode ser escrita de forma matricial, a partir de um vetor
de médias Mneq e de uma matriz diagonal de desvios padrão Dneq , contendo os parâmetros das
distribuições normais equivalentes:
110
Jzx = (Dneq )−1
Jxz = Dneq
as transformações de X → Z e de Z → X resultam:
z = Jzx · {x − Mneq }
x = Jxz · z + Mneq (4.47)
Modelo de Nataf
O princípio da aproximação normal permite obter um conjunto de variáveis aleatórias Z com dis-
tribuição marginal normal padrão, através da equação (4.44). A correlação entre pares de variáveis
aleatórias (eq. 4.34), quando existe, deve ser imposta na distribuição conjunta fZ (z). Seja RZ uma
matriz de correlação equivalente a ser determinada. A distribuição de Z é uma distribuição normal
padrão multi-variada:
fZ (z) = φn (z, RZ ) (4.48)
O modelo de Nataf (Nataf, 1962) consiste em construir uma aproximação para a função conjunta
de densidade de probabilidades fX (x) a partir da distribuição normal padrão multi-variada com matriz
de correlação RZ :
fX (x1 )fX2 (x2 )...fXn (xn )
fX (x) = φn (z, RZ ) 1 (4.49)
φ(z1 )φ(z2 )...φ(zn )
Considere agora duas variáveis Xi e Xj não-normais com coeficiente de correlação ρXij . Para duas
variáveis o modelo de Nataf reduz-se a:
fXi (xi )fXj (xj )
fXi Xj (xi , xj ) = φ2 (zi , zj , ρZij ) (4.50)
φ(zi )φ(zj )
A expressão (4.51) permite calcular ρZij em função do ρXij conhecido, de forma a construir-se a
matriz de correlação equivalente. O modelo de Nataf e a equação (4.51) são válidos quando:
1. o mapeamento na equação (4.44) é unívoco (um-para-um), o que é verdade se FXi (xi ) é contínua
e estritamente crescente;
2. o valor de ρZij estiver compreendido entre −1 e +1.
Como a diferença entre ρZ e ρX é pequena, a segunda condição é satisfeita em quase todas as
situações de interesse prático.
A avaliação do coeficiente ρZ através da expressão (4.51) é feita de forma iterativa, o que pode
ser bastante demorado. Este procedimento pode ser evitado através do uso de fórmulas empíricas
(Kiureghian e Liu, 1986), que fornecem uma relação r para várias combinações de distribuições:
ρZij
rij = (4.52)
ρXij
111
Em geral, o fator r não é muito diferente de um. À parte distribuições exponenciais deslocadas,
o fator r geralmente fica na faixa 0.9 ≤ r ≤ 1.1. Sendo assim, se o coeficiente de correlação ρX entre
duas variáveis de projeto é determinado de forma subjetiva, pode-se muito bem aproximar ρZ por ρX
É importante, no entanto, salientar a diferença teórica entre ρZ e ρX .
CY = Cov[Y, YT ]
= Cov[AT · Z, ZT · A]
= AT · Cov[Z, ZT ] · A
= AT · CZ · A (4.53)
Se A é a matriz ortogonal cujas colunas são formadas pelos autovetores de CZ , então a multipli-
cação em (4.53) produz a matriz dos autovalores de CZ :
CY = AT · CZ · A = Λ
com:
λ1 0 ... 0
0 λ2 ... 0
CY =Λ=
...
(4.54)
... ... ...
0 0 ... λn
sendo λi o i-ésimo autovalor da matriz CZ . Note que a equação (4.54) implica em que a variância
das variáveis Y resultantes desta transformação seria diferente da unidade, e igual à raiz quadrada
dos respectivos autovalores (σ 2Yi = λi ). Isto não é conveniente, pois exigiria mais uma transformação
como a de Hassofer-Lind para obter variáveis reduzidas com variância unitária. Para evitar esta
transformação adicional, buscamos A tal que AT · CZ · A seja igual à matriz identidade. A matriz de
transformação desejada é:
A =A · Λ−1/2
£ ¤
onde A é matriz ortogonal cujas colunas são os autovetores de CZ e Λ−1/2 = (λi )−1/2 = [1/σ Yi ] é
a matriz diagonal das inversas das raízes quadradas dos auto-valores de CZ . Neste caso:
CY = AT · CZ · A
= (A · Λ−1/2 )T · CZ · (A · Λ−1/2 )
T
= (Λ−1/2 )T · (A · CZ · A) · Λ−1/2
= (Λ−1/2 )T · Λ · Λ−1/2
= I (4.55)
Jyz = AT = (A · Λ−1/2 )T
1/2 T
Jzy = (AT )−1 = (Λ ·A) (4.56)
y = Jyz · z
z = Jzy · y (4.57)
112
Transformação por decomposição de Cholesky
CZ · A = (AT )−1 · I
CZ = (AT )−1 · I · A−1
= (AT )−1 ·A−1 (4.59)
Jyz = L−1
Jzy = L (4.61)
Transformação resultante
Nas três seções anteriores, vimos como realizar o mapeamento de um conjunto de variáveis aleatórias
de um domínio X para um domínio Z, e do domínio Z para Y. Para combinar estas transformações,
basta utilizar a regra da cadeia. Utilizando as matrizes Jacobianas, isto fica muito simples:
· ¸ · ¸
∂yi ∂yi ∂zj
Jyx = = = Jyz · Jzx
∂xk ∂zj ∂xk
· ¸ · ¸
∂xi ∂xi ∂zj
Jxy = = = Jxz · Jzy
∂yk ∂zj ∂yk
113
Utilizando a decomposição de Cholesky, temos:
y = Jyx · {x − Mneq }
x = Jxy · y + Mneq (4.64)
114
4.3 SORM - MÉTODO DE CONFIABILIDADE DE SEGUN-
DA ORDEM
A estimativa de primeira ordem da probabilidade de falha é obtida aproximando-se a equação de
estado limite por um hiper-plano tangente a esta no ponto de projeto. Este método resulta em uma
boa aproximação da probabilidade de falha correta quando a equação de estado limite no espaço
normal padrão for plana ou aproximadamente plana na vizinhança do ponto de projeto.
Não-linearidades na equação de estado limite g(y) = 0 surgem quando a equação de estado limite
no domínio de projeto g(x) = 0 é não linear, e também quando a transformação para o espaço normal
padrão for não-linear. Isto ocorre quando as variáveis aleatórias são fortemente correlacionadas e/ou
quando as distribuições de probabilidade são fortemente não-Gaussianas. Neste caso, aproximações
de segunda ordem, que consideram as curvaturas da equação de estado limite em torno do ponto de
projeto, podem fornecer melhor aproximação da probabilidade de falha. Aproximações de segunda
ordem dão origem ao que se chama de método de confiabilidade de segunda ordem ou SORM - Second
Order Reliability Method.
Métodos de segunda ordem consistem em aproximar a equação de estado limite no ponto de
projeto por superfícies quadráticas ou parabólicas (figura 4-7), e determinar o conteúdo de probabil-
idades (probabilidade de falha) correspondente a estas superfícies. Uma aproximação por superfícies
quadráticas foi primeiramente apresentada por Fiessler et al. (1979). Os resultados, no entanto, não
são apropriados para uso prático. Em estudos subsequentes (Breitung, 1984; Tvedt, 1984; Tvedt,
1985; Kiureghian et al., 1987), aproximações parabólicas são consideradas. Aproximações parabólicas
podem ser baseadas em curvaturas ou em pontos, como será visto a seguir.
∇g(y∗ )
bn = −
v
k∇g(y∗ )k
vn = g 0 (vn−1 )
Um parabolóide é então ajustado às curvaturas da equação de estado limite no ponto de projeto (ápice
do parabolóide):
n−1 n−1
1 XX
vn = β+ aij vi vj
2 i=1 j=1
1
= β + (vn−1 )T · A · vn−1 (4.65)
2
onde A é a matriz de derivadas de segunda ordem de g 0 (vn−1 ). Sendo ∇2 g(y∗ ) a matriz de derivadas
de segunda ordem (matriz Hessiana) da equação de estado limite:
· 2 ¸
2 ∗ ∂ g(y)
∇ g(y ) =
∂yi ∂yj i=1,...,n; j=1,...,n
VT · ∇2 g(y∗ ) · V
A= (4.66)
k∇g(y∗ )k
115
As condições de otimalidade de segunda ordem do problema de otimização definido em (4.12)
levam a uma aproximação assintótica de segunda ordem da probabilidade de falha (Breitung, 1984):
1
Pf2 = Φ(−β) p (4.67)
det(I + βA)
Este caminho corresponde a duas linhas verticais em vi = ±kβ e a um semi-círculo de raio kβ,
116
onde o coeficiente k é dado por:
1
|β| se |β| < 1
k= 1 se 1 ≤ |β| ≤ 3
3
|β| se |β| > 3
Para determinar as coordenadas a e b de cada ponto, é necessário resolver uma equação do tipo:
g(a(b)b
vi + bb
vn )
onde
2(b−
i − β) 2(b+
i − β)
ki− = e ki+ =
(a−
i )
2 (a+
i )
2
são as curvaturas das semi-parabolas. Para obter a estimativa de segunda ordem da probabilidade de
falha utilizando a formula de Breitung, uma curvatura equivalente para cada eixo vi é determinada
de:
1³ ´
(1 + βki )−1/2 = (1 + βki− )−1/2 + (1 + βki+ )−1/2
2
A vantagem do parabolóide ajustado por pontos é obter um ajuste global à equação de estado
limite, independente do ruído característico das soluções numéricas, e evitar o cálculo da matriz
Hessiana. O ponto fraco deste método é que os resultados dependem da escolha do sistema de eixos
bi . Obviamente, a opção ideal para estes eixos são as direções principais da equação de estado limite,
v
cuja determinação, no entanto, requer o cálculo da matriz Hessiana.
4.4 Figuras
s = x2
M (x ) = r − s = 0
domínio de falha domínio de segurança
µx 2
µx1
r = x1
117
M ( y ) = y1 − y2 = 0 y2
domínio de falha
y1
β domínio de segurança
Seção B-B:
g (y ) = 0
area = Pf1 β
118
y2 seção B-B
domínio de falha
g (y) g ( y) > 0
c p1
B g ( y) = 0
s
p2
s = ∇g T ⋅∇g
p1 g ( y) < 0
p2
B β1 g ( y) = 0
β2 g ( y) = c > 0
domínio de segurança y1
119
2 1
1.5 0.8
0.6
1
0.4
0.5
0.2
-2 -1 0 1 2 -2 -1 0 1 2
2 1
1.5 0.8
0.6
1
0.4
0.5
0.2
-2 -1 0 1 2 -2 -1 0 1 2
2 1
1.5 0.8
0.6
1
0.4
0.5
0.2
-2 -1 0 1 2 -2 -1 0 1 2
Figura 4-5: Distribuições normais equivalentes a uma distribuição uniforme U ∼ (−1, 1) nos pontos
x = 0; x = 0.7 e x = 0.9; a esquerda, PDF; a direita, CDF.
120
Capítulo 5
CONFIABILIDADE DE
SISTEMAS
Os problemas considerados até aqui se limitaram a uma única equação de estado limite, o que corre-
sponde a um único modo de falha. No entanto, os elementos ou membros estruturais que compõem
uma estrutura apresentam em geral múltiplos modos de falha. Modos de falha típicos para elementos
estruturais são: deformação plástica (escoamento localizado), formação de rótula plástica (plastifi-
cação da seção), ruptura frágil da seção, deflexão excessiva, acúmulo de dano.
Múltiplos modos de falha também podem ser definidos para uma estrutura completa. Modos de
falha típicos para estruturas são: deflexão excessiva, vibração excessiva, recalque de apoios, perda de
equilíbrio (seja por ruptura ou formação de rótulo plástica em membros, seja por ruptura de vincu-
lações de apoio). Neste capítulo, estudamos como determinar a probabilidade de falha de estruturas
e de elementos estruturais sujeitos a múltiplos modos de falha.
Em geral, classifica-se como sistemas estruturais estruturas compostas por muitos membros ou
elementos estruturais. Quem determina se a falha de um elemento estrutural implica ou não em
falha da estrutura é o grau de redundância da mesma. Em geral, em estruturas isostáticas a falha
de um elemento implica em falha da estrutura, devido à ausência de redundância. Já a análise da
falha de estruturas hiper-estáticas exige a consideração da falha progressiva de elementos estruturais,
bem como a consideração das diversas sequências em que esta pode acontecer. Esta análise exige a
decomposição do sistema estrutural em combinações de elementos estruturais em série e em paralelo,
o que é estudado na seção (5.1).
A análise de sistemas estruturais complexos requer um esquema sistemático para identificar todos
os modos de falha possíveis bem como suas consequências. Para isto, utiliza-se árvores de falhas e
árvores de eventos. Arvores de falha são utilizadas para decompor um evento de interesse (falha de um
componente) em uniões e intersecções de sub-eventos básicos, até que a probabilidade de ocorrência
destes seja conhecida ou possa ser determinada. Árvores de eventos são utilizadas para determinar
sistematicamente todas as consequências de um evento de falha. Árvores de falhas e Árvores de eventos
são estudadas na seção (5.4).
F = E1 ∪ E2 ∪ E3 ∪ ... ∪ En = ∪ni=1 Ei
121
O evento sobrevivência (não-falha) é dado por:
F = E 1 ∩ E 2 ∩ E 3 ∩ ... ∩ E n = ∩ni=1 E i
Pf = P [F ] = P [∪ni=1 Ei ]
Na avaliação desta probabilidade, deve-se considerar se existe dependência entre os eventos Ei . Pode-
se mostrar que a probabilidade de falha é limitada por:
n
Y
max P [Ei ] ≤ Pf ≤ 1 − (1 − P [Ei ])
i
i=1
O limite inferior (esquerda) corresponde a dependência perfeita entre os eventos e portanto à falha
do componente mais fraco (evento de maior probabilidade de ocorrência). O limite superior (direita)
corresponde à independência entre os eventos (modos de falha independentes). Para probabilidades
P [Ei ] pequenas, o limite superior pode ser aproximado por:
n
X
max P [Ei ] ≤ Pf ≤ P [Ei ] (5.1)
i
i=1
F = E1 ∩ E2 ∩ E3 ∩ ... ∩ En = ∩ni=1 Ei
F = E 1 ∪ E 2 ∪ E 3 ∪ ... ∪ E n = ∪ni=1 E i
Sistemas em paralelo são sistemas redundantes. Esta redundância pode ser ativa ou passiva. Na
redundância ativa, vários componentes dividem uma mesma tarefa. Na redundância passiva, alguns
componentes ficam em estado de standby, até que um componente falhe e os componentes redundantes
sejam acionados. A probabilidade de falha de sistemas em paralelo é:
Pf = P [F ] = P [∩ni=1 Ei ]
Redundância ativa
122
Redundância passiva
No caso de redundância passiva, a avaliação da probabilidade de falha do sistema requer a análise
de probabilidades condicionais através de uma árvore de falhas. Esta é construída estabelecendo-se a
probabilidade de ocorrência de cada uma das possíves sequências de falha, que são determinadas por
eventos condicionais. Como exemplo, para um sistema com 3 componentes em paralelo, a probabili-
dade de falha para a sequência de falha S1 corresponde a:
2. carga e resistência não são necessáriamente independentes (exemplos: carga de peso próprio
relacionada com as dimensões dos membros, resistência relacionada com carregamento anterior);
Neste capítulo, as cargas são consideradas invariantes com o tempo. Esta simplificação mascara
o problema da dependência com o caminho de carregamento (load path dependence), a qual só pode
ser corretamente considerada quando os carregamentos são representados por processos estocásticos.
Conforme vimos, processos estocásticos de carregamento dão origem a problemas de confiabilidade
dependentes do tempo, que são considerados no capítulo xx.
123
Na simplificação do comportamento de sistemas estruturais, faz-se uma distinção entre membros
frágeis e dúcteis. Para membros frágeis admite-se um comportamento elástico-frágil do material (b).
Para membros dúcteis admite-se comportamento elastico-perfeitamente plástico (c). Estas simplifi-
cações permitem a análise de alguns tipos de sistemas estruturais, como será visto a seguir.
Em geral, outros tipos de comportamento de material exigem soluções numéricas. Efeitos não-
lineares pós-flambagem, por exemplo, são representados por material elástico com enrijecimento plás-
tico (e) e exigem uma análise distinta da apresentada neste capítulo.
124
eventos em paralelo, uma vez que o mecanismo só é formado quando todas as resistências são mobi-
lizadas. Os diferentes mecanismos possíveis para determinada estrutura representam eventos em série,
uma vez que a falha da estrutura é caracterizada pela formação de qualquer mecanismo. Assim, a
desconsideração de algum dos possíveis mecanismos de falha é não-conservadora (contra a segurança).
A formação de um mecanismo plástico é representada por uma equação de estado limite como:
X X
Qi ∆i − Mj θj = 0
i j
onde:
Qi são as forças atuando sobre o pórtico;
∆i são os deslocamentos das forças na formação de um mecanismo;
Mj é o momento fletor necessário para formar uma rótula plástica na j − ésima seção transversal;
θj é a rotação da j − ésima seção transversal na formação do mecanismo.
Exemplo:
gi (x) = 0, i = 1, 2, ..., n
Fi = {x|gi (x) ≤ 0}
Note que esta representação coincide com a definição do domínio de falha (equação 3.2). Logo, o
domínio de falha em relação ao i − ésimo modo de falha é Dfi = Fi . Portanto, o domínio de falha
para n modos de falha associados em série é um domínio composto, obtido por:
Df = ∪ni=1 Dfi
Isto significa que, para determinar a probabilidade de falha em relação a qualquer um dos possíveis
modos de falha, basta atualizar o domínio de falha na equação (3.24):
125
Z
Pf = fX (x)dx (5.3)
∪n
i=1 Dfi
As probabilidade de falha individuais (em relação a cada um dos modos de falha considerados indi-
vidualmente) podem ser determinadas utilizando-se os métodos SORM, FORM e SORM estudados
no capítulo (4). Nesta seção, estudamos como estas soluções individuais são aproveitadas na solução
de problemas envolvendo domínios de falha compostos como na equação (5.3).
F = F1 ∪ F2 ∪ F3 ∪ ... ∪ Fn = ∪ni=1 Fi
Observando o diagrama de Venn para os n eventos Fi , é fácil perceber que a probabilidade de falha
Pf = P [F ] é obtida por:
Pf = +P [F1 ] (5.4)
+P [F2 ] − P [F2 ∩ F1 ]
+P [F3 ] − P [F3 ∩ F1 ] − P [F3 ∩ F2 ] + P [F3 ∩ F2 ∩ F1 ]
+...
Note-se que o primeiro somatório envolve probabilidade de falha individuais, o segundo envolve inter-
secções de dois eventos, o terceiro intersecções de três eventos e assim por diante. Note-se ainda que os
sinais destes somatórios alternam-se entre positivo e negativo, o que significa que limites inferiores e
superiores para a probabilidade de falha são obtidos à medida que estes termos vão sendo incorporados
na soma.
Limites uni-modais são obtidos desconsiderando-se todos os termos envolvendo intersecções. Isto
significa que estes limites são calculados considerando-se apenas modos individuais de falha. Como será
visto a seguir, os resultados apresentados na equação (??) correspondem a limites uni-modais. Limites
bi-modais são obtidos incluindo-se os termos de intersecção entre dois modos de falha P [Fi ∩ Fj ]. Os
termos de intersecção múltipla (três ou mais modos de falha) são bastante difíceis de calcular, e nem
sempre necessários.
Limites uni-modais
A consideração do primeiro somatório (apenas) da equação (5.5) dá origem a um limite superior para
a probabilidade de falha:
Xn
Pf ≤ P [Fi ] (5.6)
i=1
Os termos de intersecção P [Fi ∩Fj ] ou de intersecção múltipla na equação (5.5) são sempre menores
ou iguais ao menor dos eventos envolvidos na intersecção:
P [Fi ∩ Fj ] ≤ min[Fi , Fj ]
Isto significa que a consideração de apenas um dos termos do somatório em (5.6) corresponde a um
limite inferior para a probabilidade de falha. Em particular:
Pf ≥ max [P (Fi )]
i
126
Portanto, os limites uni-modais da probabilidade de falha são obtidos como:
n
X
max [P (Fi )] ≤ Pf ≤ P [Fi ]
i
i=1
Note que esta expressão é idêntica à equação (??). Os limites uni-modais não são muito úteis por
serem bastante amplos, principalmente quando não há um modo de falha dominante.
Limites bi-modais
Limites bi-modais da probabilidadade de falha do sistema são obtidos incluindo os termos de segunda
ordem (P [Fi ∩ Fj ]) da equação (5.5). Para obter um limite inferior, desconsideramos os termos
envolvendo intersecções múltiplas (três ou mais modos de falha), mas utilizamos o operador max[.]
para garantir que não haja contribuição negativa na probabilidade de falha devido à desconsideração
dos termos de terceira ordem (P [Fi ∩ Fj ∩ Fk ]):
n
X i−1
X
P [F1 ] + max 0, P [Fi ] − P (Fi ∩ Fj ) 6 Pf (5.7)
i=2 j=1
Observe que este limite depende da ordenação dos modos de falha. Existem algoritmos para se
determinar a ordenação ideal dos modos de falha a fim de estreitar estes limites. A regra geral é
ordená-los em escala de importância, i.e., em escala decrescente de probabilidade de falha individual:
O limite superior é obtido a partir de uma simplificação das linhas da expressão (5.4). Cada linha
desta expressão faz uma contribuição não-negativa na probabilidade de falha, de modo que:
n
X n
X
Pf 6 P [Fi ] − max [P (Fi ∩ Fj )] (5.8)
i>j
i=1 i=2
Aqui, o operador max[.] também garante que não ocorra contribuição negativa na probabilidade de
falha.
Considere os dois hiper-planos tangentes à cada equação de estado limite nos respectivos pontos de
projeto:
127
A covariância entre os dois modos de falha (entre as duas equações de estado limite) é obtida como:
O termo E[yT · y] corresponde ao momento de ordem 2 (equação 2.14), e pode ser calculado como:
No espaço das variáveis normais padrão normalizadas, E[y] = 0 e σ 2Y = 1, logo E[yT ·y] = 1. Portanto,
a covariância entre dois modos de falha se resume a:
ou:
q
σ gi (y) = ∇gi (yi∗ )T · ∇gi (yi∗ ) = k∇gi (yi∗ )k
Portanto, o coeficiente de correlação aproximado entre dois modos de falha gi (y) e gj (y), obtido
através da linearização das equações de estado limite nos respectivos pontos de projeto, é:
Pode-se mostrar ainda que ρgi gj é o cosseno do angulo entre as equações de estado limite lin-
earizadas.
Na avaliação dos limites inferior e superior (equações 5.7 e 5.8), os termos P (Fi ∩ Fj ) são aproxi-
mados de forma a preservar os respectivos limites.
Quando o coeficiente de correlação ρgi gj é positivo, utiliza-se
128
Quando o coeficiente de correlação ρgi gj é negativo, utiliza-se
Análise qualitativa
Árvores de falha são uma maneira sistematizada e organizada de identificar as prováveis falhas de um
sistema que podem levar a um acidente (evento principal). Além de identificar as prováveis causas de
um acidente, árvores de falha permitem descobrir combinações de incidentes que levam à falha e que
de outra maneira poderiam passar desapercebidas.
Uma análise puramente qualitativa, utilizando valores de probabilidades aproximados, já é sufi-
ciente para orientar o projeto de um sistema. Ela permite identificar as seqüências críticas de eventos
que mais provavelmente levam à falha do sistema. Estas seqüências são chamadas de caminhos críticos
ou minimal cut sets. Os caminhos críticos que podem levar ao evento principal podem ser identifi-
cados em uma análise qualitativa. A probabilidade de ocorrência do evento principal pode então ser
minimizada minimizando-se a probabilidade de ocorrência dos eventos do caminho crítico. Por meio
dos caminhos críticos, pode-se simplificar consideravelmente a árvore de falha de um sistema muito
complexo.
129
Análise quantitativa
Muitas vezes, estatísticas de eventos são dadas em termos de freqüências (e.g., falhas por ano, ou
falhas por hora). O cálculo de probabilidade em uma porta AND (figura ??) admite apenas uma
entrada do tipo freqüência, caso contrário o resultado se tornaria algo como “falhas3 por ano3 ”, o que
obviamente não faz sentido. No entanto, se uma das entradas for uma freqüência e as demais entradas
forem probabilidades, o resultado se torna também uma estimativa de freqüência.
Na operação OR, não há qualquer dificuldade em combinar estatísticas de eventos em termos de
freqüencias, desde que as freqüências sejam relativamente baixas.
4. pode representar componentes em série e/ou paralelo, com redundância ativa ou passiva;
9. atenção com os modos de falha comuns, pois a análise quatitativa é baseada na hipótese de
independência entre eventos!
2. definição dos eventos secundários relevantes, de onde partem os “galhos” da árvore. Cada
ramificação é associada a uma probabilidade de ocorrência. A soma das probabilidades de
ocorrência de todos os galhos que ramificam de um nó deve ser um (1.0);
3. traçado dos caminhos de falha, distinguindo caminhos que levam a falha de caminhos sem maiores
conseqüências. Os caminhos de falha mostram onde devem ser concentrados os esforços para
diminuir a probabilidade de ocorrência de resultados indesejáveis;
130
Avaliação qualitativa:
Uma avaliação qualitativa de uma árvore de eventos pode fornecer informações importantes, como:
2. o papel de barreiras, formadas por ações e medidas que tem como finalidade conter a propagação
dos eventos. Exemplo: as barreiras físicas utilizadas para conter eventuais vazamento de líquidos;
3. efeitos de mudanças no projeto, e.g., mudar uma linha de condução (tubulação) para longe da
área com potencial para incêndios, evitando eventos secundários relacionados com a tubulação;
Avaliação quantitativa:
2. há risco de aumentar muito, a medida que mais eventos secundários são considerados;
5.5 Figuras
e1 e2 e3 ... en
131
e1
e2
e3
...
en
132
evento
principal
e1 e2 e5 e7
e3 e4 e6
c1 c2 c3 c4 c5 c6
evento
inicial
133
134
Capítulo 6
SIMULAÇÃO DE MONTE
CARLO
Simulação de Monte Carlo é o nome dado a simulação que envolve a utilização de números
aleatórios. O nome é uma referência à cidade de Monte Carlo, no principado de Mônaco, famosa
por seus cassinos.
A simulação é uma técnica que permite a solução de problemas muito complexos. Tem sido muito
utilizada para prever o comportamento a longo prazo de sistemas complexos de qualquer natureza.
Na simulação, não há limite no número de variáveis do problema ou na complexidade de modelo,
resolvendo-se com a mesma facilidade problemas com poucas ou com muitas variáveis.
Na matemática, a simulação é utilizada como ferramenta para calcular integrais, equações algébri-
cas e equações diferenciais complexas.
Em termos de análise estrutural, a simulação pode ser entendida como uma forma de simular
numéricamente um experimento que na prática não é realizável. Este experimento consiste em testar a
estrutura para todas as conbinações possíveis de resistências e de ações, sendo estas variáveis aleatórias
e/ou processos estocásticos. Tal experimento não é realizável na prática porque:
1. o custo de construção de estruturas é muito elevado para se construir protótipos para teste;
Na área de análise estrutural, o método de simulação de Monte Carlo é muito utilizado como
último recurso, quando os demais métodos analíticos falham. É comum também utilizar-se Monte
Carlo para verificar soluções analíticas aproximadas.
Com o aumento da capacidade dos computadores, a simulação de Monte Carlo tem conquistado
mais espaço, devido à sua robustez e simplicidade. Técnicas de amostragem inteligente tem permitido
a aplicação da simulação à problemas com baixa probabilidade de falha.
Métodos de simulação são muitas vezes chamados de métodos exatos porque, teóricamente, o
resultado da simulação tende ao resultado exato quando o número de simulações tende ao infinito.
Além disto, métodos de simulação evitam certas aproximações dos métodos analíticos. No entanto, a
concepção de exato se limita a estes dois fatores pois, na realidade, métodos de simulação ainda estão
sujeitos a erros de modelo, aproximações algorítmicas na geração de números aleatórios, e outros.
Os resultados dependem da qualidade dos números aleatórios utilizados, o que representa importante
parcela do trabalho de simulação.
135
6.1 FORMULAÇÃO
Conforme estabelecido nas equações (3.24) e (5.3), a determinação da probabilidade de falha de um
componente ou sistema estrutural envolve uma integral sobre o domínio de falha Df da função de
densidade de probabilidade conjunta fX (x):
Z
Pf = fX (x)dx (6.1)
Df
O domínio de falha pode ser representado por uma única equação de estado limite ou por qualquer
combinação de estados limites em série e/ou em paralelo:
I[x] = 1 se x ∈ Df (falha)
I[x] = 0 se x ∈
/ Df (sobrevivência)
De acordo com a equação (2.12), esta expressão corresponde ao valor esperado da função indicadora
I[Df ] . Portanto, o valor esperado da probabilidade de falha pode ser estimado, com base em uma
amostra de tamanho finito, através da equação (2.16):
nsi
1 X
Pf = I[x] = I[xi ] (6.3)
nsi i=1
onde a barra indica uma estimativa e nsi é o numero de simulações. Este é um estimador não-
tendencioso da probabilidade de falha.
Este resultado é baseado em uma amostra de tamanho finito nsi , e portanto está sujeito a um
erro estatístico que corresponde à variância de I[x]. Utilizando a equação (2.19), obtemos a variância
como:
nsi
X
1 ¡ ¢2
V ar[Pf ] = I[xi ] − Pf (6.4)
(nsi − 1) i=1
− ln[1 − k]
nsi > (6.5)
Pf
Como exemplo, para um nível de confiança k = 95% e Pf = 10−3 , esta regra resulta em nsi > 3000.
A probabilidade de falha em problemas de confiabilidade estrutural é típicamente muito pequena
(da ordem de 10−3 a 10−6 ). Isto significa que, em geral, o número de simulações necessárias para se
atingir alguns poucos pontos no domínio de falha é muito grande. Isto leva também a uma grande
variância dos resultados. Para endereçar este problema e reduzir o número de simulações necessárias,
utiliza-se técnicas de redução de variância, que são estudadas na seção (6.3).
O método de Monte Carlo formulado aqui é conhecido como método de Monte Carlo simples ou
direto, por não utilizar técnicas de redução de variância.
Algoritmo 40 Método de Monte Carlo simples ou direto
1. gerar nsi amostras xi = {x1 , x2 , ...xn } a partir da função conjunta de densidades fX (x);
136
2. verificar a ocorrência de falha ou não para cada amostra, através da função indicadora I[xi ];
Este procedimento pode ser visualizado na figura (6-1). Ele pode ser aplicado para qualquer
distribuição estatística conhecida, uma vez que, por definição, a função de distribuição cumulativa de
probabilidades aumenta monotonicamente entre 0 e 1. No entanto, este procedimento não é adequado
para as distribuições normal e lognormal, uma vez que a expressão analítica de FX (x) não é conhecida
(ver equação 2.39 e seção 2.9.2).
Amostras de variáveis aleatórias com distribuição normal ou log-normal podem ser obtidas a partir
de um algoritmo específico. Um par de amostras independentes y1 e y2 de uma variável normal padrão
é obtido a partir de um par de amostras independentes u1 e u2 , uniformemente distribuídas entre 0 e
1, a partir de (Soong e Grigoriu, 1993):
p
y1 = −2 log u1 cos(2π u2 )
p
y2 = −2 log u1 sin(2π u2 ) (6.7)
xj = yj σ + µ (6.8)
Utilizando o mesmo algoritmo, amostras de uma variável log-normal X ∼ LN (λ, ξ) são obtidas de:
xj = exp[yj ξ + λ] (6.9)
Ambos algoritmos (equações 6.6 e 6.7) estão baseados em amostras de números aleatórios uj com
distribuição uniforme entre 0 e 1. Na próxima seção, verificamos como estes números são obtidos
através de algoritmos recursivos. A geração de grupos de números aleatórios com função conjunta de
densidade de probabilidades fX (x) é descrita na seção (6.2.3).
137
Nesta expressão, int[.] representa a parte inteira, (a, m, c) são constantes que caracterizam o
gerador, e z1 (o valor inicial de zk ) é a chamada semente do gerador. É fácil perceber que a equação
(6.10) resulta em números distribuídos entre 0 e 1. O gerador congruencial funciona a partir de uma
sequência de grandes números zk , obtida de:
· ¸
a zk + c
zk+1 = a zk + c − m int (6.11)
m
A seqüência de números gerados pelas equações (6.10 e 6.11) é uma sequência determinística, e por
conta disto o conjunto de números gerados é dito pseudo-aleatório. A seqüência pode ser reproduzida
através do uso da mesma semente z1 , o que muitas vezes é conveniente.
A qualidade de um gerador congruencial depende amplamente das constantes (a, m, c). O gerador
é cíclico, e o período do ciclo é menor do que m. Isto significa que um grande valor de m deve
ser utilizado. Além disto, o índice de correlação entre dois números consecutivos é inversamente
proporcional às constantes m e a utilizadas, e portanto ambos valores devem ser grandes. A semente
z1 deve ser um número grande, inteiro e ímpar. Infelizmente, estas especificações não são suficientes
para garantir a qualidade de um gerador.
Teste de geradores
onde fXi (xi ) é a função de densidade de probabilidades marginal da variável Xi . Isto significa que
os números aleatórios podem ser gerados de forma independente dos demais, utilizando as equações
(6.6, 6.8 ou 6.9).
138
Variáveis aleatórias correlacionadas
A existência de correlação entre as variáveis aleatórias do problema deve ser imposta ao gerar-se
amostras do vetor xi = {x1 , x2 , ...xn }. Na simulação de Monte Carlo, a correlação é tratada de
maneira inversa ao que ocorre na solução via SORM ou FORM. Na solução via FORM, a correlação
entre as variáveis é eliminada ao realizar-se a transformação para o espaço normal padrão. Na solução
via simulação, a correlação deve ser imposta aos pontos amostrados. Na prática, porém, as mesmas
matrizes são utilizadas.
fX (x) = fX1 (x1 )fX2 (x2 |x1 )...fXn (xn |x1 , x2 , ..., xn−1 )
FX (x) = FX1 (x1 )FX2 (x2 |x1 )...FXn (xn |x1 , x2 , ..., xn−1 ) (6.13)
onde fX2 (x2 |x1 ) é a função de densidade de probabilidade condicional de X2 dado X1 . A partir deste
modelo, números aleatórios correlacionados podem ser obtidos como:
−1
x1 = FX1
(u1 )
−1
x2 = FX 2
(u2 |x1 )]
..
.
−1
xn = FX n
(un |x1 , x2 , ..., xn−1 )] (6.14)
Modelo de Nataf Na prática, o modelo de Nataf pode ser utilizado para gerar amostras de variáveis
aleatórias correlacionadas. Conforme visto na seção 4.2, o modelo de Nataf consiste em construir
uma aproximação para a função conjunta de distribuição de probabilidades fX (x) a partir de uma
função de distribuição Gaussiana padrão multi-variada φn (z, RZ ) (equação 4.49). Utilizando este
modelo, a correlação entre as variáveis X pode ser imposta em uma amostra X = x a partir de uma
amostra z envolvendo variáveis normais padrão correlacionadas. Esta correlação, por sua vez, pode
ser imposta em um conjunto de variáveis normais padrão y, sem correlação, utilizando as matrizes de
transformação utilizadas na seção 4.2.
Inicialmente, obtém-se uma amostra yi = {y1 , y2 , ..., yn } de um vetor formado por números
aleatórios normais padrão independentes, conforme a equação (6.7). Esta amostra é transformada
para o espaço Z através de:
zi = Jzy ·yi (6.15)
onde Jzy é a matriz Jacobiana de transformação de Y → Z. A seguir, determina-se o vetor de
probabilidades acumuladas desta amostra (vetor ui ), fazendo:
ui = Φ[zi ]
Note que a matriz de transformação Jzy é a mesma utilizada em FORM, obtida pela decomposição
ortogonal ou de Cholesky da matriz de correlação equivalente RZ , através das equações (4.56 e ??).
139
se tornar muito grande. Para endereçar este problema e reduzir o número de simulações necessárias,
utiliza-se técnicas de redução de variância, que são estudadas nesta seção.
1
ZC =
(ZA + ZB ) (6.17)
2
ZC também será um estimador não tendencioso pois:
1 1
E[ZC ] = (E[ZA ] + E[ZB ]) = (ZA + ZB ) (6.18)
2 2
A variância de ZC , no entanto, é:
1
V ar[ZC ] = (V ar[ZA ] + V ar[ZB ] + 2Cov[(ZA + ZB )]) (6.19)
4
Se os estimadores ZA e ZB são independentes (e.g., baseados em dois conjuntos distintos de valores
aleatórios), o último termo da expressão (6.19) se anula. Se os estimadores tiverem correlação negativa,
o último termo é menor que zero e portanto a variância de ZC resulta menor do que a variância
combinada de ZA e ZB . Logo, a variância de ZC , e portanto o erro associado com a simulação, pode
ser reduzida através da utilização de dois estimadores com correlação negativa.
A correlação negativa é obtida através do uso das variáveis antitéticas, como segue. Se uma
amostra xi é obtida a partir de uma amostra ui (com distribuição uniforme entre 0 e 1), então a
próxima amostra xi+1 é obtida a partir de (1− ui ). Assim, os estimadores ZA e ZB são baseados em
nsi /2 amostras (alternadas), e resultam negativamente correlacionados.
Esta técnica de redução da variância é muito fácil de implementar, mas as melhorias são modestas.
Em função disto, as variáveis antitéticas são geralmente combinadas com outras técnicas de redução
da variância.
Como os pontos são gerados por uma função de amostragem hX (x) e não pela função fX (x), é
claro que:
I 0 [x] 6= I[x]
A estimativa da probabilidade de falha (equação 6.3) fica:
nsi
1 X fX (xi )
Pf = I 0 [xi ] (6.21)
nsi i hX (xi )
Comparando a equação (6.21) com a equação (6.3), nota-se que para a nova função indicadora
140
I 0 [xi ], cada ponto amostrado está associado à um peso de simulação wi :
fX (xi )
wi = (6.22)
hX (xi )
De fato, se hX (x) desloca os pontos amostrados para o domínio de falha, I 0 [xi ] será maior do
que I[xi ], mas cada ponto amostrado estará associado a um peso wi < 1, conforme representado no
detalhe da figura (6-2).
O sucesso da amostragem por importância está na escolha da função de amostragem hX (x). Uma
função mal escolhida pode mesmo piorar os resultados em relação à amostragem simples.
Se a função de amostragem é escolhida de maneira que:
fX (x)
hX (x) = I 0 [xi ] (6.23)
Pf
então a estimativa Pf na equação (6.21) se torna idêntica à probabilidade verdadeira, Pf , com apenas
uma simulação sendo suficiente. Óbviamente, esta expressão não tem utilidade prática porque faz uso
da própria Pf que está sendo procurada. No entanto, ela mostra que hX (x) deve ser escolhida de
maneira a ser proporcional à I 0 [xi ] fXP(x)
f
, ou seja, de maneira a ser proporcional à função de densidades
conjunta fX (x) no domínio de falha.
Várias estratégias são propostas na literatura para se determinar a função de amostragem: amostragem
por importância utilizando pontos de projeto (Borgund e Bucher, 1986); amostragem adaptativa
(Bucher, 1988; Karamchandani et al., 1989); método kernel adaptativo (Ang e Ang, 1994); método
do hipercone (Iman e Canover, 1980); simulação direcional (Bjerager, 1988, Melchers, 1992) e outras.
2. verificar a ocorrência de falha para cada amostra, através da função indicadora I 0 [xi ];
3. avaliar o peso de simulação para cada ponto amostrado, a partir da equação (6.22);
141
Para nel equações de estado limite, a função de amostragem é obtida como:
nel
X
hX (x) = pi hiX (x) (6.25)
i=1
onde pi é o peso de amostragem associado ao i − ésimo modo de falha. Cada saliência hiX é obtida
transladando a função fX (x) de forma que seu ponto médio coincida com o respectivo ponto de projeto.
Os pesos pi são determinados em função da importância de cada modo de falha. Para modos de falha
em série, estes pesos são calculados em termos da estimativa de primeira ordem da probabilidade de
falha:
Φ(−β i )
pi = Pnel (6.26)
i=1 Φ(−β i )
Assim, a amostragem se concentra nos pontos de projeto mais importantes. Pode-se também esta-
belecer um limite para pi (e.g., pi > 0.1), valor abaixo do qual um ponto de projeto é desconsiderado
na construção da função de amostragem.
O número total de simulações nsi é dividido de forma proporcional aos pesos pi . Cada conjunto de
pontos é amostrado segundo a componente correspondente da função de amostragem, hiX . A função
indicadora é avaliada para falha em relação a qualquer modo de falha, independente da componente
hiX utilizada na geração de cada amostra. Os pesos de amostragem para cada ponto simulado são
determinados através de (6.25) e (6.22), e as estimativas da média e variância da probabilidade de
falha são obtidas de (6.21) e (6.24).
Seja H o conjunto de variáveis aleatórias cuja função de densidade conjunta corresponde à função
de amostragem hX (x). Relaxando a condição (6.27) e aplicando-a apenas aos dois primeiros de H,
tem-se:
A partir de simulações iniciais, calcula-se E[H] e Cov[H, HT ] e utiliza-se estes valores para construir
a nova função de amostragem. A simulação inicial pode ser realizada nos pontos de projeto.
142
simples ou com amostragem por importância, com a vantagem de cada avaliação de ge(x) ser muito
mais rápida do que avaliações de g(x).
onde A = {a0 , ai , aii , aij } são os coeficientes a determinar, sendo que os índices (i, j) variam de acordo
com a equação (6.30). Estes coeficientes correspondem aos termos constante, lineares, quadráticos e
cruzados, respectivamente.
Para determinar o vetor de coeficientes A, a equação de estado limite original g(x) deve ser avaliada
em determinado número de pontos np . Uma vez determinados estes pontos, os valores exatos g(xk )
são avaliados. Os coeficientes A são então determinados através do método dos mínimos quadrados,
minimizando-se a seguinte função erro em relação ao valor dos coeficientes A:
np
X ¡ k ¢2
Erro[A] = g(x ) − ge(xk ) (6.31)
k=1
onde Q é a matriz cujas colunas são formadas pelos vetores V(xk ) e B é o vetor de componentes
k
B = {g(x )}k=1,...,np .
Diferentes superfícies de resposta descritas na literatura diferem em termos da expressão polinomial
utilizada (equação 6.30 com ou sem termos cruzados) e em termos da metodologia de seleção dos pontos
de ajuste (análise de experimento). Para resolver a equação (6.32), é necessário que:
143
região em torno do ponto de projeto. Isto significa que os erros na avaliação de probabilidades de falha
serão grandes, independentemente do método de solução empregado (FORM, SORM ou simulação de
Monte Carlo).
Outra estratégia que pode resultar em grandes erros é a utilização de uma única superfície de
resposta para representar um domínio de falhas composto por diversos modos de falha (em série,
paralelo ou combinações). Neste caso, a composição dos modos de falha pode dar origem a cantos
vivos, que dificilmente são representados pela superfície de resposta.
Superfícies de resposta podem ser construídas de forma adaptativa a fim de se encontrar os pontos
de projeto. Ao considerar esta estratégia, deve-se levar em conta que a construção de uma super-
fície quadrática completa (conforme equação 6.30) exige um mínimo de np ≥ (n2 + n + 1) pontos.
Desprezando os termos cruzados, np ≥ (2n + 1) pontos se fazem necessários. Em contrapartida, a
avaliação do gradiente da equação de estado limites exata, ∇g(x), por diferenças finitas uni-laterais
requer apenas np = (n + 1) pontos. Isto significa que, na busca pelo ponto de projeto, é mais barato
calcular o gradiente e determinar o próximo ponto diretamente a partir da equação de estado limite
exata, do que construir uma superfície de resposta. Portanto, o uso de superfícies adaptativas para
busca de pontos de projeto deve ser considerado com cautela.
Uma estratégia interessante é a construção de uma superfície de resposta centrada em cada ponto de
projeto. Nesta estratégia, uma superfície de resposta é utilizada para cada equação de estado limite
que compõe o domínio de falha. O erro de aproximação pelas superfícies de resposta é minimizado
em relação à região importante de cada parcela do domínio de falhas.
Esta estratégia pode ser associada com a simulação de Monte Carlo com amostragem por im-
portância nos pontos de projeto. Utilizando superfícies de resposta quadráticas com termos cruzados,
esta solução tem o mesmo custo de uma solução via SORM para cada modo de falha. No entanto,
permite uma avaliação muito mais prescisa das probabilidades para domínios de falhas compostos,
sejam eles em série, paralelo ou combinação, em comparação com os limites bi-modais linearizados.
6.5 FIGURAS
FY(y),FZ(z)
FY(y) 1.0
FZ(z)
Y Z
y z
144
Figura 6-2: Amostragem por importância usando o ponto de projeto.
145
146
Capítulo 7
TEORIA DE PROBABILIDADES:
PROCESSOS ESTOCÁSTICOS
7.1 DEFINIÇÕES
7.1.1 Processo estocástico como família de funções
Definição 42 em um determinado experimento, atribui-se a cada ponto amostral wi do espaço amostral
Ω uma função do tempo x(wi , t). A família de funções X(w, t) assim criada é chamada de processo
estocástico.
Note-se que:
Notação
Neste e nos demais capítulos, utilizamos a seguinte notação:
147
Exemplos:
Exemplo 43 Para um espaço amostral Ω formado pelo conjunto de pontos amostrais w = {1, 2, 3, 4, 5, 6}
as funções:
X1 (w, t) = cos[wt]
X2 (w, t) = cos[t + w]
X3 (w, t) = w cos[t]
representam 3 processos estocásticos distintos. Para cada realização wi , a variação temporal destes
processos é determinística (conhecida com probabilidade um); por isto estes processos são chamados
de processos estocásticos parametrizados.
X1 (w, t) = cos[wt]
X2 (w, v, t) = cos[wt + v]
X3 (w, v, u, t) = u cos[wt + v]
Exemplo 45 Associando números reais aos pontos amostrais dos experimentos caracterizados no
exemplo anterior, obtemos 3 variáveis aleatórias: W, V e U . É claro que os três processos estocásticos
podem ser definidos em termos destas variáveis aleatórias:
X1 (W, t) = cos[W t]
X2 (W, V, t) = cos[W t + V ]
X3 (W, V, U, t) = U cos[W t + V ]
Neste exemplo fica claro que podemos entender um processo estocástico como uma função de variáveis
aleatórias.
O evento {X(w, t) ≤ x} consiste em todas as realizações w tais que, no instante t, as funções x(t)
não excedem o valor x. A função F1 (x, t) é chamada de distribuição cumulativa de primeira ordem do
processo X(t). A função densidade de primeira ordem é obtida derivando-se em relação a x :
∂F1 (x, t)
f1 (x, t) = (7.2)
∂x
Considere agora dois instantes de tempo t1 e t2 . X(t1 ) e X(t2 ) são duas v.a. dependentes de t1 e
t2 . A função conjunta de distribuição cumulativa de probabilidades depende também de t1 e t2 :
148
é chamada de distribuição cumulativa de segunda ordem do processo X(t). A função de densidade
correspondente é obtida derivando-se em relação à x1 e x2 :
∂ 2 F2 (x1 , x2 ; t1 , t2 )
f2 (x1 , x2 ; t1 , t2 ) = (7.4)
∂x1 ∂x2
F1 (x, t)
F2 (x1 , x2 ; t1 , t2 )
...
Fn (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) (7.5)
define completamente o processo X(t). Logo, podemos definir o processo X(t) como:
Definição 46 Um processo estocástico X(t) é formado por uma família de variáveis aleatórias (de
dimensão infinita) ao longo do contínuo t.
Em geral, µ(t) é uma função do tempo. Generalizando este resultado, o momento de ordem k do
processo X(t) é dado por:
Z ∞
µk (t) = E[X(t)k ] = xk f1 (x, t)dx (7.7)
−∞
149
Pode-se ainda definir uma função índice de auto-correlação:
A função de covariância-cruzada é:
Esta função corresponde à covariância entre as v.a. X(t1 ) e Y (t2 ). Pode-se ainda definir uma função
índice de correlação-cruzada:
e portanto:
RXY (t1 , t2 ) = µX (t1 )µY (t2 )
Os mesmos processos são ditos ortogonais quando, para quaisquer t1 e t2 :
7.2.5 Estacionariedade
Definição 47 Um processo X(t) é dito estacionário quando as suas estatísticas não mudam em re-
lação a uma translação no tempo, i.e., os processos X(t) e X(t + ε) tem as mesmas estatísticas para
qualquer ε.
150
Em particular, se um processo X(t) é estritamente estacionário:
f1 (x, t) = f1 (x)
Como consequência, resulta da equação (7.6) que a média deve ser também constante:
f2 (x1 , x2 ; t1 , t2 ) = f2 (x1 , x2 ; t1 + ε, t2 + ε)
Como a igualdade deve ser válida para qualquer ε, resulta que a densidade de segunda ordem é função
da diferença t2 − t1 = τ :
f2 (x1 , x2 ; t1 , t2 ) = f2 (x1 , x2 , τ ), τ = t2 − t1
A função f2 (x1 , x2 , τ ) vem a ser a função de densidade conjunta das v.a.s X(t) e X(t + τ ). Da
equação (7.8) conclue-se que a função de autocorrelação depende também de τ :
De maneira semelhante, dizemos que os processos X(t) e Y (t) são conjuntamente estacionários se as
estatísticas conjuntas de X(t) e Y (t) são idênticas às estatísticas conjuntas de X(t +ε) e Y (t +ε), para
qualquer ε. Note que os processos podem ser individualmente estacionários, mas não necessáriamente
conjuntamente estacionários. Se X(t) e Y (t) são conjuntamente estacionários:
E[X(t)] = µ = cte.
E[X(t)X(t + τ )] = RXX (τ ) (7.20)
4. RXX (τ ) é não-negativa.
151
7.2.7 Função densidade espectral de potência
S(w) é uma função real. A função de auto-correlação pode ser obtida da função de densidade espectral
pela transformada inversa: Z ∞
1
RXX (τ ) = S(w)eiwτ dw
2π −∞
Para τ = 0, obtemos: Z ∞
1
S(w)dw = RXX (0) = E[X(t)2 ] ≥ 0
2π −∞
S(w) = S(−w)
Neste caso, a transformada de Fourier e sua inversa também podem ser obtidas como:
Z ∞
S(w) = RXX (τ ) cos(wτ )dτ
−∞
Z ∞
1
RXX (τ ) = S(w) cos(wτ )dw (7.21)
2π −∞
Nas figuras (7-1 e 7-2) são apresentadas algumas funções de auto-correlação típicas de processos
estocásticos contínuos e as respectivas densidades espectrais de potência.
De forma semelhante, a densidade espectral de potência cruzada de dois processos X(t) e Y (t) é
definida como:
Z ∞
SXY (w) = RXY (τ )e−iwτ dτ
−∞
Z ∞
1
RXY (τ ) = SXY (w)eiwτ dw
2π −∞
São de grande utilidade no trabalho com processos estocásticos os momentos da função densidade
espectral de potência. Defini-se o momento de ordem k como:
Z ∞
λk = wk S(w)dw (7.22)
−∞
152
Resulta desta propriedade que os momentos espectrais estão relacionados com o processo X(t) e com
suas derivadas, Ẋ(t) e Ẍ(t), da seguinte maneira:
λ0 = σ2X
λ2 = σ2Ẋ
λ4 = σ2Ẍ (7.23)
Estes parâmetros serão utilizados oportunamente no trabalho com processos estocásticos. Um parâmetro
importante, que caracteriza a largura de banda do processo, é o fator de regularidade:
p λ2
α= 1 − ε2 = √
λ0 λ4
O fator de regularidade varia entre 0 e 1. Processos de banda estreita, que tem elevado nível de
regularidade, tem α próximo de um. O ruído branco tem α = 0.
É claro que U(w) é uma variável aleatória. Pode-se também definir a função:
Z T
1
R(w, τ ) = lim X(w, t + τ )X(w, t)dt
T →∞ 2T −T
Para cada realização do processo (X(wi , t) = x(t)), U(wi ) = u é uma constante e R(wi , τ ) = r(τ ) é
uma função de τ . Para T suficientemente grande, obtemos as aproximações:
Z T
1
UT (w) = X(w, t)dt
2T −T
Z T
1
RT (w, τ ) = X(w, t + τ )X(w, t)dt (7.26)
2T −T
que também representam uma v.a. e uma função de τ para cada realização do processo.
As grandezas U(w) e R(w, τ ) são estatísticas temporais do processo estocástico estacionário X(t).
É importante salientar a diferença entre estas e as estatísticas definidas nas equações (7.18) e (7.19).
As grandezas E[X(t)] = µ e E[X(t)X(t + τ )] = RXX (τ ) são estatísticas tomadas sobre as diferentes
realizações wi do processo estocástico. Estas são chamadas de estatísticas de valor esperado ou ainda
estatísticas de envelope.
153
Por definição, um processo ergódico é necessariamente estacionário. O inverso não é verdadeiro,
porque um processo estacionário não é necessariamente ergódico. Se um processo X(t) é estritamente
ergódico, suas estatísticas podem ser determinadas a partir das estatísticas temporais de uma única
realização X(wi , t) = x(t) do processo.
A ergodicidade estrita implica em que todas as estatísticas temporais do processo sejam idênticas
às estatísticas de envelope correspondentes. Esta condição de ergodicidade é rígida, mas pode ser
relaxada para apenas aqueles momentos de interesse.
Ergodicidade na média
Um processo estocástico X(t) é ergódico na média se a média temporal é idêntica à média de envelope:
Z T
1
lim X(w, t)dt = U(w) = E[X(w, t)] = µX
T →∞ 2T −T
Exemplo 49 Considere o processo estocástico estacionário X(t) = Y, sendo Y uma v.a. com mo-
mentos (µY , σ Y ). Note que, se yi corresponde a i − ésima realização de Y , temos (contra-exemplo):
U(wi ) = yi
E[X(t)] = µY
R(wi , τ ) = yi2
E[X(t + τ )X(t)] = E[Y 2 ] = σ 2Y
d
E[Ẋ(t)] = E[X(t)] (7.28)
dt
∂ 2 RXX (t1 , t2 )
E[Ẋ(t1 )Ẋ(t2 )] = RẊ Ẋ (t1 , t2 ) = (7.29)
∂t1 ∂t2
existe para qualquer função X(w, t), o resultado Y (w) é uma variável aleatória, que corresponde à
área sob o processo X(w, t).
154
7.4 ESTATÍSTICAS DE BARREIRA
7.4.1 Período médio de recorrência ou tempo médio de retorno
As principais aplicações de confiabilidade estrutural envolvem extremos de processos estocásticos ao
longo de determinados períodos (exemplo: extremo de carregamento durante período de vida útil de
uma estrutura). Os eventos extremos correspondem a determinados níveis que o processo pode atingir.
Seja um processo X(t) e um nível crítico deste processo, b, distante alguns desvios-padrão da
média µX , conforme ilustrado na figura (7-3). A frequência com a qual o processo visita o nível b, ou
o tempo de recorrência entre visitas sucessivas, são estatísticas importantes. O tempo que o processo
permanece acima ou abaixo do nível b também podem ser importantes. É intuitivo e fácil de perceber
que, quanto mais elevado o nível da barreira b, mais raras são as visitas do processo a este nível, e
maior é o período de recorrência entre visitas sucessivas.
Seja Tr (b) o período de recorrência entre visitas sucessivas do processo X(t) ao nível de barreira
b (aqui, uma visita corresponde a uma passagem de barreira de baixo para cima, ou seja, a visita
não acaba até que o processo tenha voltado abaixo do nível b). Claramente, se X(t) é um processo
estocástico, Tr (b) é uma variável aleatória. As estatísticas de Tr (b), em geral, são difíceis de determinar.
No entanto, o período médio de recorrência ou período médio de retorno:
pode ser determinado para muitos processos estocásticos, como será visto nesta seção.
A variável aleatória período de recorrência Tr (b) pode ser decomposta em dois períodos de interesse,
Ta (b) e Tb (b), que correspondem ao tempo que o processo permaneçe acima e abaixo do nível b,
respectivamente, entre visitas sucessivas:
Ainda que as estatísticas de Tr (b) dificilmente possam ser calculadas, os períodos Ta (b) e Tb (b) podem
ser determinados. Para um processo X(t) estacionário e um período de tempo longo, a fração de
tempo que o processo passa acima e abaixo do nível b, respectivamente, é:
Z ∞
E[Ta (b)] E[Ta (b)]
= = fX (x)dx = 1 − FX (b) (7.30)
E[Ta (b) + Tb (b)] E[Tr (b)] b
Z b
E[Tb (b)] E[Tb (b)]
= = fX (x)dx = FX (b) (7.31)
E[Ta (b) + Tb (b)] E[Tr (b)] −∞
155
Nesta expressão, o valor esperado E[] é sobre o envelope. Note que esta taxa ou frequência não está
associada com eventos que se repetem ao longo do tempo, mas sim com eventos que se repetem no
envelope. A interpretação de taxa ou frequencia está relacionada com a unidade de medida, tempo−1 .
Na expressão (7.32), o numeral 2 aparece porque cada período Tr (b, t) está associado com duas
passagens de barreira, uma de cima para baixo e uma de baixo para cima. Muitas vezes, estamos
interessados apenas em passagens de barreira de baixo para cima (up-crossing rate), o que pode ser
escrito como:
υ(b, t) 1
υ+ (b, t) = = (7.33)
2 E[Tr (b, t)]
De maneira semelhante, a taxa de passagens de barreira de cima para baixo é:
υ(b, t) 1
υ− (b, t) = = (7.34)
2 E[Tr (b, t)]
Para processos estocásticos estacionários e barreiras constantes no tempo, as taxas de passagens
pela barreira também são constantes no tempo:
1
υ + (b) = υ − (b) = (7.35)
E[Tr (b)]
Fórmula de Rice
A taxa de passagens (de baixo para cima) de um processo X(t) por uma barreira constante b pode
ser determinada conforme segue. Considere o que aconteçe entre os instantes t1 e t1 + dt, com dt → 0,
quando neste intervalo ocorre uma ultrapassagem da barreira. Para que a passagem de barreira ocorra
neste intervalo, é necessário que o processo esteja abaixo do nível b no instante t1 e que tenha variação
(derivada) suficiente para ultrapassar a barreira neste intervalo, conforme a figura (7-5):
1 h i
υ + (b, t) = lim P X(t1 ) < b ∩ X(t1 ) + Ẋ(t1 )dt > b
dt→0 dt
1 h i
= lim P X(t1 ) < b ∩ Ẋ(t1 )dt > b − X(t1 ) (7.36)
dt→0 dt
Esta condição é representada em termos das variáveis aleatórias X(t1 ) e Ẋ(t1 ) na figura (7-6). Um
elemento de área nesta representação corresponde ao evento {x ≤ X(t1 ) ≤ x+dx, ẋ ≤ Ẋ(t1 ) ≤ ẋ+dẋ},
descrito pela função de distribuição de probabilidades conjunta fX Ẋ (x, ẋ). Portanto, a probabilidade
expressa na equação (7.36) pode ser avaliada pela integral:
Z ∞Z b
1
υ + (b, t) = lim fX Ẋ (x, ẋ)dxdẋ (7.37)
dt→0 dt 0 b−ẋdt
No limite com dt → 0, a área de integração se reduz a uma estreita faixa e b− ẋdt → b. Substituindo
o limite por uma derivada:
Z " ÃZ !#
∞ b
+ d
υ (b, t) = fX Ẋ (x, ẋ)dx dẋ
0 dt b−ẋdt
O integrando não depende de t, de forma que basta derivar os limites de integração em relação à
t:
∂
b = 0
∂t
∂
(b − ẋdt) = −ẋ
∂t
156
Assim, obtém-se:
Z ∞
υ + (b, t) = [(0) fX Ẋ (x, ẋ) − (−ẋ)fX Ẋ (b, ẋ)] dẋ
0
Z ∞
= ẋ fX Ẋ (b, ẋ)dẋ (7.38)
0
Esta é a fórmula de Rice (1954) para a taxa de passagens pela barreira υ + (b, t). Utilizando procedi-
mento análogo, uma expressão semelhante é obtida para υ(b, t):
Z ∞
υ(b, t) = |ẋ| fX Ẋ (b, ẋ)dẋ (7.39)
−∞
Note que esta expressão corresponde ao valor esperado do valor absoluto da derivada |ẋ| , avaliada
em x = b.
Para uma barreira que é função do tempo, uma expressão semelhante a (7.38) é obtida:
Z ∞
υ + (b, t) = (ẋ − ḃ) fX Ẋ (b, ẋ)dẋ (7.40)
ḃ
Cada passagem de barreira de baixo para cima é seguida por uma passagem de cima para baixo,
de forma que: ¯ ¯
1 ¯ ¯
υ + (b) = υ− (b) = fX (b)E[¯Ẋ ¯]
2
Como a diferenciação é uma operação linear, resulta que se X(t) é processo Gaussiano, Ẋ(t) é
processo Gaussiano também. Para X(t) estacionário, resulta das equações (7.18 e 7.28) que E[Ẋ] =
µẊ = 0. Para um desvio-padrão σẊ , obtém-se que:
Z ∞ " µ ¶2 #
¯ ¯ 1 ẋ 1 ẋ
¯ ¯
E[¯Ẋ ¯] = 2 √ exp − dẋ
0 2π σ Ẋ 2 σ Ẋ
" µ ¶2 #¯¯∞
2σ Ẋ 1 ẋ ¯
= − √ exp − ¯
2π 2 σẊ ¯
0
2σ
= √ Ẋ
2π
Portanto:
σ
υ+ (b) = √ Ẋ fX (b)
2π
" µ ¶2 #
1 σ Ẋ 1 b − µX
= exp − (7.41)
2π σ X 2 σX
Para b = µX esta equação forneçe a frequência média do processo, ou taxa de passagens pela
média:
1 σ Ẋ w0
υ+
0 = = (7.42)
2π σ X 2π
σX
.
Na equação (7.42), w0 é a freqüencia angular média do processo. Isto mostra que o termo σX que
157
aparece na equação (7.41) vem a ser a frequencia angular média w0 . Utilizando as equações (7.23),
esta frequência pode ser calculada como:
r
σ X. λ2
w0 = = (7.43)
σX λ0
Em termos de υ+
0 , a taxa de passagens pela barreira fica:
" µ ¶2 #
+ + 1 b − µX
υ (b) = υ 0 exp − (7.44)
2 σX
Interpretando este resultado, observa-se que a taxa de passagens por uma barreira b é dada pela
taxa de passagens pela média multiplicada pela função de densidade de probabilidades do processo
avaliada em b. A função de densidade fornece a probabilidade de longo prazo de que o processo esteja
numa vizinhança do nível b:
A frequencia média υ +
0 informa quão rapidamente o processo varia no tempo, e portanto determina
com que frequência o processo visitará o nível b.
Utilizando a expressão (7.40) e seguindo um procedimento semelhante, obtém-se a taxa de pas-
sagens por uma barreira b(t) = a − bt que varia linearmente com o tempo (Cramer e Leadbetter,
1967): · ¸ · ¸
+ a − bt − µX b
υ (t) = w0 φ Ψ −
σX w0 σ X
onde Ψ[x] = φ[x] − xΦ[−x].
A equação (7.45) permite compreender o problema mas não é adequada para fins de avaliação da
taxa. Uma formulação melhor é obtida expandindo X(t) em primeira ordem em t:
A figura (8-5) mostra os eventos associados às probabilidades expressas na equação (7.48). Esta
equação representa uma aproximação em diferenças finitas da derivada da probabilidade de falhas de
158
um sistema em paralelo (entre colchetes). Isto permite escrever:
d ¯
¯
υ+ (b, t) = Pθ [Ẋ(t) > 0 ∩ X(t) + θẊ(t) ≥ b]¯ (7.49)
dθ θ=0
d
onde Pθ [·] é a probabilidade associada ao sistema em parallelo e dθ Pθ [·]|θ=0 representa a medida de
sensibilidade desta probabilidade.
A taxa de passagens expressa em (7.49) pode ser avaliada por FORM ou SORM, utilizando as
seguintes margens de segurança:
m1 (t) = −Ẋ(t)
m2 (t, θ) = b − X(t) − θẊ(t)
A única exigência é que o algoritmo para a avaliação dos fatores de sensibilidade seja sensível à
variações devido a rotação da equação de estado limite.
159
7.5.3 Distribuição de picos de um processo Gaussiano
Conforme vimos na seção (2.7), o valor máximo em n observações independentes de uma variável
aleatória X é uma variável aleatória com função de distribuição cumulativa de probabilidades dada
por (equação 2.78):
FXn (x) = [FX (x)]n (7.52)
Utilizando a equação (7.50), o número de picos (máximos locais) do processo X(t) no intervalo
(0, T ) é dado por:
υ+
0T 1 w0 T
np = =
α α 2π
A distribuição de valores extremos do processo Gaussiano no intervalo (0, T ) é obtida a partir do
máximo em np observações de picos locais. Esta distribuição é obtida integrando-se a expressão (7.51)
em x e substituindo na equação (7.52):
µZ x ¶np
FXT (x) = fp (u)du (7.53)
0
Note que o número de picos np está definido pelo tamanho do intervalo T, e portanto a distribuição de
extremos FXT (x) está indexada em T. Utilizando a equação (7.52), assume-se a indepêndencia entre
picos do processo, o que introduz um erro desprezível (Gumbel, 1958).
Uma solução assintótica da equação (7.53) é obtida assumindo-se o número de picos np grande, e
resulta na dupla exponencial:
" µ ¶2 #
1 x − µX
FXT (x) ' exp −n exp − ( )
2 σX
onde n = w2π0T
= αnp . A figura (7-8) mostra o comportamento desta distribuição em função do número
de ciclos n do processo.
Um dos processos estocásticos discretos mais simples é gerado por uma sequência w de variáveis
aleatórias Xk , independentes e idênticamente distribuídas, cada uma atuando num intervalo deter-
minístico de tempo tb , também chamado de holding-time. Num intervalo (0, T ), o número de reno-
vações será n = tTb . Devido a independência, a distribuição de valores extremos da sequência é:
· ¸
P max [w(tb , y) ≤ b] = P [∩ni=1 Xi ≤ b] = (FX (b))n
0≤t≤T
160
A probabilidade de falha, ou probabilidade de ultrapassagem do nível X(t) > b, é dada por:
· ¸
Pf (T ) = P max [w(tb , y) > b
0≤t≤T
n
= 1 − (FX (b))
T
= 1 − (FX (b)) tb
2. o número de eventos que ocorrem em dois intervalos não sobrepostos são variáveis aleatórias
independentes (processo sem memória); portanto para t0 < t1 < t2 < ... < tn , as variáveis
aleatórias N (t1 ) − N (t0 ), ... , N (tn ) − N (tn−1 ) são independentes;
Em conjunto, estas hipóteses determinam que no processo de Poisson os incrementos são esta-
cionários e independentes.
Um processo de Poisson com taxa υ constante é dito homogêneo. Uma aproximação do processo de
Poisson é obtida quando υ = υ(t). Neste caso, o processo é dito não-homogêneo e a constante λ = υt
Rt
passa a ser calculada como λ = 0 υ(v)dv. Para esta aproximação, a hipótese de estacionáriedade
deixa de ser válida, i.e., os incrementos não são mais estacionários.
onde N (t) é um processo de Poisson com intensidade υ, que gera os pontos tk , nos quais o proces-
so sofre uma renovação de magnitude aleatória Yk . Assume-se as intensidades Yk independentes e
idênticamente distribuídas. A função w(t, tk , Yk ) é chamada de função de resposta do processo, pois
representa a contribuição linear para a resposta X(t) no instante t,devido à magnitude Yk atuando
no instante tk .
Processos filtrados de Poisson são definidos pela intensidade υ que determina o número de ren-
ovações N (t), pela distribuição de probabilidades de Yk , e pela forma da função de distribuição
w(t, tk , Yk ). Duas formas são particularmente importantes na confiabilidade estrutural, por serem
apropriadas para representar carregamentos em estruturas: o processo de pulsos e a onda quadrada
de Poisson, que serão estudados a seguir.
Processo de pulsos
Um processo com intensidade constante υ e pulsos retangulares de amplitude Yk e comprimento tb
pode ser descrito pela função de resposta:
161
sendo Yk uma variável aleatória, independente entre pulsos, e definida pela função fY (y). Observe
que os pulsos são esparsos quando υtb << 1.
A taxa de passagens pela barreira b e a probabilidade de falha a primeira sobrecarga são dadas no
limite com tb → 0. A taxa de passagens é dada por:
½ ¾
+ 1
υ (b) = lim υP [ultrapassagem em ∆t]
∆t→0 ∆t
½ ¾
1
= lim υP [Y (t) < b ∩ Y (t + ∆t) > b]
∆t→0 ∆t
onde υ é a taxa de chegada dos pulsos. Observe que a última linha da equação (7.54) está baseada na
independência entre a intensidade dos pulsos. Se o nível b é elevado e constante, pode-se escrever:
Observe que υ+ (b) representa a intensidade do processo de pulsos. A probabilidade de falha é dada
por:
Pf (T ) = P [pulso > b]
= 1 − exp[−υ + (b)T ]
= 1 − exp[−υT FY (b)(1 − FY (b))]
onde FY0 (b) = P [Y0 < b]. A intensidade do pulso inicial é independente das demais por definição. Da
mesma forma, a distribuição cumulativa do máximo de X(t) é:
162
7.6.4 Processos de Poisson mixtos
Um tipo muito flexível de processo discreto são os chamados processos mixtos (mixed processes).
Nestes processos, a ocorrência dos pulsos segue um processo de Poisson com intensidade υ. A inten-
sidade Yk é descrita por uma variável aleatória clipada (seção 2.3.3), que permite uma probabilidade
finita de intensidade nula. Isto significa que o processo permanece ”desligado” em alguns dos pul-
sos. Assim, pode-se representar carregamentos esparsos evitando o problema da concidência de pulsos
do processo de pulsos de Poisson. O processo mixto é muito flexível pois permite representar tanto
processos de pulsos como processos de onda quadrada.
p = P [{Y = 0}]
q = P [{Y > 0}]
A figura (7-9) ilustra 8 realizações de um processo discreto mixto com υ = 1, e cuja intensidade
segue uma distribuição de Rayleigh clipada com p = 0.2 e q = 0.8. A figura (7-10) mostra resultados
semelhantes com p = 0.8 e q = 0.2. Note-se como este segundo processo é mais esparso do que o
primeiro.
A taxa de chegada de pulsos observáveis, i.e., de pulsos de intensidade não nula, é υq, sendo υ a
taxa de ocorrência de pulsos do processo de Poisson original. A taxa de passagens pela barreira, para
processos mixtos, fica:
υ+ (b) = υq(p + qFZ (b))(1 − FZ (b)) (7.55)
Se cada pulso retorna automaticamente para zero antes da chegada do novo pulso, para níveis
elevados da barriera a equação (7.55) se simplifica para:
163
7.7 FIGURAS
2 2
2πδ (τ ) 1
1 1
Variável aleatória
2 2
1 2πδ (τ )
1 1
Banda limitada
2 2
2 1 ( w − w a )τ ( wb − w a )τ 1
sin b se w a ≤ w ≤ wb
τ ( wb − wa ) 2 cos 2 2 ( wb − w a )
0 caso co n trario
1
1
Triangular
λ 4 sin 2 ( wT / 2 )
1 − para τ < T
1 T 2π w 2 T
0 caso contrario
0.1
0
0
-2 -1 0 1 2 -20 -10 0 10 20
Senoidal
2
cos( w0τ ) w0 > 0 1 1
δ ( w + w0 ) + δ ( w − w0 )
1 2 2
1
0
-1
-10 -5 0 5 10 -2 -1 0 1 2
Figura 7-1: Funções de auto-correla ção comuns e densidades espectrais de potência (ajustadas para
área unitaria) correspondentes.
164
F u n çã o d e a u to -co r rela çã o D en sid ad e esp ectra l d e p o tên cia
R X X (τ ) S XX ( w )
σX 2
Exponencial σX2
0.5
1 exp[ − λ τ ] λ>0 1 λ
π (w2 + λ 2 )
0.5
0 0
-4 -2 0 2 4 -4 -2 0 2 4
Exponencial amortecida
0
-4 -2 0 2 4 -10 -5 0 5 10
Exponencial quadrática
0.5
1 exp[ − λ 2τ 2 ] λ>0 1 w 2
exp −
2λ π 2 λ
0.5
0 0
-4 -2 0 2 4 -4 -2 0 2 4
0
-3 -2 -1 0 1 2 3 -10 -5 0 5 10
0
0
-4 -2 0 2 4 -4 -2 0 2 4
Figura 7-2: Funções de auto-correla ção comuns e densidades espectrais de potência (ajustadas para
área unitaria) correspondentes (continuação).
165
X (t )
barreira b (t ) = b
x (t ) = realização de X (t )
X (t )
t1 ta ta
b (t ) = b
x (t )
tb tb
t
Figura 7-4: Composição do tempo de recorrência entre visitas do processo X(t) ao nível b.
x (t )
b (t ) = b
xdt
x (t )
t1 t1 + dt t
166
x
x = − xdt
x=b
b x
Figura 7-6: Limites de integração da taxa de passagens pela barreira no plano (x, ẋ).
fpH sL
0.6 α=1.0
0.5
α=0.9
0.4
α=0.5
0.3
0.2 α=0.0
0.1
-3 -2 -1 0 1 2 3 4
fpHsL FpHsL
1
2
n=10 8 0.8 n=10 8
1.5 n=10 4
0.6 n=10 4
n=10 2
1 n=10 2
n=10 1 0.4
n=10 1
0.5 0.2
0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7
Figura 7-8: Distribuição de valores extremos de um processo Gaussiano em função do número de ciclos
n.
167
3 3
2.5 2.5
Pulse Intensity
Pulse Intensity
2 2
1.5 1.5
1 1
0.5 0.5
0 5 10 15 20 25 0 5 10 15 20 25
Time Time
3 3
2.5 2.5
Pulse Intensity
Pulse Intensity
2 2
1.5 1.5
1 1
0.5 0.5
0 5 10 15 20 25 0 5 10 15 20 25
Time Time
3 3
2.5 2.5
Pulse Intensity
Pulse Intensity
2 2
1.5 1.5
1 1
0.5 0.5
0 5 10 15 20 25 0 5 10 15 20 25
Time Time
3 3
2.5 2.5
Pulse Intensity
Pulse Intensity
2 2
1.5 1.5
1 1
0.5 0.5
0 5 10 15 20 25 0 5 10 15 20 25
Time Time
168
Capítulo 8
CONFIABILIDADE
DEPENDENTE DO TEMPO
8.1 FORMULAÇÃO
g(R, S, t) = 0
Típicamente, tanto o processo de carregamento como a resistência da estrutura são funções do tem-
po. Típicamente, tanto o carregamento como a resistência são multi-dimensionais. Na solução deste
problema, consideramos inicialmente a situação de um processo de carregamento escalar e estacionário,
e de uma resistência invariante no tempo. Esta situação dá origem a um problema estacionário, que
pode ser convertido em um problema de confiabilidade independente do tempo.
169
8.2 CONVERSÃO PARA FORMATO INDEPENDENTE DO
TEMPO - PROBLEMAS ESCALARES ESTACIONÁRIOS
8.2.1 Integração no tempo
Quando o problema de confiabilidade dependente do tempo envolve um processo de carregamento
escalar e estacionário, e quando a resistência não varia com o tempo, a integração no tempo pode ser
transferida para o processo de carregamento. Desta forma, o problema de confiabilidade é convertido
em um formato independente do tempo. Esta técnica de solução é chamada de integração no tempo
(time-integrated approach).
Se o processo de carregamento S(t) inicia abaixo de um nível de resistência r e não ultrapassa
este nível durante o período de vida útil ou de projeto (0, T ), então o valor máximo do processo neste
intervalo também é menor do que r. O valor máximo de um processo estocástico S(t) em um intervalo
de duração T é uma variável aleatória, ST , descrita por uma distribuição de valores extremos fST (s)
(veja seção 7.5). Para este problema, a probabilidade de falha é dada pela probabilidade de que o
máximo de S(t) seja maior do que r:
Pf (T ) = P [ST ≥ r]
Para uma resistência multi-dimensional, função de um vetor de variáveis aleatórias R:
R = função de resistência(R)
Pf (T ) = P [ST ≥ R]
A determinação desta probabilidade é um problema que envolve apenas variáveis aleatórias, e que
pode ser resolvido utilizando os métodos estudados nos capítulos anteriores. Uma equação de estado
limite é escrita como:
g(R,ST ) = R − ST = 0 (8.3)
A probabilidade de falha é obtida integrando a função de distribuição de probabilidades conjunta
de R e ST sobre o domínio de falha:
Z
Pf (T ) = fRST (r, s)drds (8.4)
g(r,s)≤0
Este problema envolve apenas variáveis aleatórias e pode ser resolvido por FOSM, FORM ou SMC.
A integração no tempo é solução exata quando um único processo de carregamento (escalar e
estacionário) atua sobre a estrutura, e quando a resistência não varia com o tempo. Na presença de
variação de resistência, ou quando o carregamento é não-estacionário, a integração no tempo pode
ser utilizada apenas como aproximação (Marley e Moan, 1994). A solução exata é obtida através dos
métodos estudados na seção 8.3.
Quando mais de um carregamento atua sobre a estrutura (processo estocástico multi-dimensional),
é necessário determinar um carregamento equivalente (8.5). A integração no tempo pode então ser
aplicada sobre este carregamento equivalente. Quando a determinação de um carregamento equivalente
não é possível, torna-se necessário resolver um problema multi-dimensional dependente do tempo,
conforme seção 8.6.
170
A integração no tempo é feita para cada segmento. Por exemplo, a probabilidade de falha para
um ano é calculada considerando-se a distribuição dos máximos de carregamento para um ano. A
determinação da probabilidade de falha para a vida útil da estrutura levara em conta o número de
eventos à que a estrutura está submetida durante o período de vida útil. Esta discretização do tempo
dá origem a duas soluções distintas:
1) o número de eventos ou segmentos à que a estrutura está submetida é conhecido;
2) o número de eventos é desconhecido a priori.
Quando o período de vida útil da estrutura é dividido em um número discreto de segmentos, o número
ne de segmentos é conhecido. Seja td = nTe a duração de um segmento de carga. Para que a estrutura
sobreviva a ne segmentos de carga, é necessário que o máximo carregamento em cada segmento seja
menor do que a resistência da mesma:
Pf2e (td )
(1 − Pf e (td ))ne ≈ 1 − ne Pf e (td ) + ne (ne − 1) + ...
2
e portanto:
Pf (T ) = 1 − PS (T )
≈ ne Pf e (td ) (8.6)
A equação (8.6) fornece a probabilidade de falha para uma vida de projeto T dividida em ne segmentos
de carga, assumindo independência entre o máximo carregamento ou a probabilidade de falha em cada
segmento. A desconsideração dos termos de segunda ordem na expansão é válida quando ne Pf e (td ) <<
1. Em particular, isto ocorre quando a probabilidade de falha elementar Pf e (td ) é bastante pequena,
i.e., o nível de resistência r é elevado. Isto implica que a expressão (8.6) é mais prescisa quando
σ S >> σ R .
Considere agora a discretização da vida da estrutura em um número aleatório de eventos como tem-
pestades. O número exato de aplicações de carga durante a tempestade não prescisa ser conhecido,
desde que a distribuição do máximo carregamento em uma tempestade seja utilizada no cálculo da
probabilidade de falha elementar Pf e . No entanto, o número de eventos (tempestades) que ocorrem
durante a vida útil da estrutura prescisa ser conhecido para se determinar a probabilidade de falha.
Seja pk (T ) a probabilidade de ter-se exatamente k eventos durante o período (0, T ). A probabilidade
de falha para esta vida será (veja equação 2.5):
∞
X
Pf (T ) = pk (T )Pf e (8.7)
k=1
Observe que na equação (8.7) todos os números possíveis de eventos são considerados. É comum
representar a chegada dos eventos discretos como um processo de Poisson, o que fornece (2.33):
(υT )k exp[−υT ]
pk (T ) = (8.8)
k!
onde υ é a taxa de chegada de eventos (tempestades). Para tanto, os eventos devem ser independentes
e não-coicidentes, o que é uma hipótese razoável quando υ é pequena. Substituindo a equação (8.8)
171
em (8.7), e utilizando o termo de primeira ordem de uma expansão em série, obtém-se:
Pf (T ) ≈ 1 − exp[−υT Pf e ] (8.9)
Note que nesta expressão o termo υPf e é a probabilidade de falha média por unidade de tempo.
Na consideração de eventos do tipo tempestades, é comum trabalhar-se com probabilidades de falha
condicionais. Assim, na determinação da probabilidade de falha de uma estrutura sujeita a carga de
ondas, o valor máximo do carregamento durante uma tempestade depende do valor característico de
altura de onda, Hk , para a tempestade. Se fHk (h) é a função de distribuição de probabilidades para o
valor característico de altura de onda, então a probabilidade de falha para uma tempestade de duração
t é dada por: Z ∞
Pf e = Pf e (t|Hk = h)fHk (h)dh (8.10)
0
onde Pf e (t|Hk = h) é a probabilidade de falha condicional, dada uma altura de onda característica de
valor h. Esta probabilidade é calculada considerando-se o valor máximo do carregamento para uma
altura de onda h.
Pf (r, T ) = 1 − PS (r, T )
Z T
= 1 − exp[− η(r, u)du] (8.12)
0
Uma limitação deste modelo é o fato que, para que ocorra uma primeira sobrecarga (passagem de
barreira de baixo para cima) duranto o intervalo (0, T ), é necessário que o processo estocástico esteja
abaixo do nível r no instante inicial t = 0. Tal condição não está refletida na equação (8.11), mas pode
ser imposta facilmente escrevendo:
É importante notar que η(r, u), agora, é uma taxa condicional de chegada de sobrecargas.
Esta taxa será determinada oportunamente. Na equação 8.13, o termo P [{S(0) < r}] = PS0 (r)
172
corresponde à probabilidade de que o processo estocástico S(t) esteja abaixo do nível r no instante
inicial t = 0. O complemento desta probabilidade é a chamada probabilidade de falha inicial:
Pf (r, T ) = 1 − PS (r, T )
" Z #
T
= 1 − PS0 (r) exp − η(r, u)du
0
à " Z #!
T
= Pf0 (r) + (1 − Pf0 (r)) 1 − exp − η(r, u)du (8.15)
0
A equação (8.15) expressa a probabilidade de falha para uma vida T como a soma de uma prob-
abilidade de falha inicial (Pf0 (r) para t = 0) mais a probabilidade de falha devido à uma sobrecarga
dado que a falha não tenha ocorrido no instante inicial. É importante notar que só existe diferença
significativa entre as equações (8.15 e 8.12) quando a probabilidade de falha inicial é significativa.
É importante observar que, em um processo de Poisson homogêneo, a taxa η(r, t) = η(r) é con-
stante, e não existe distinção entre o tempo entre sobrecargas e o tempo até a primeira sobrecarga:
ambos são descritos pela mesma distribuição exponencial. No entanto, a condição imposta na equação
(8.13) torna este processo não homogêneo, e faz com que a taxa η(r, t) seja função do tempo, como
será visto a seguir.
Por definição, a taxa η(r, t) exclui a probabilidade de falha no instante inicial, logo η(r, 0) = 0. Sendo
assim, a taxa η(r, t) é obtida como:
1 1 ∂PS (r, t)
η(r, t) = −
PS0 (r) PS (r, t) ∂t
µ ¶
1 1 PS (r, t + ∆t) − PS (r, t)
= − lim
PS0 (r) ∆t→0 PS (r, t) ∆t
µ ¶
1 1 Pf (r, t + ∆t) − Pf (r, t)
= lim (8.16)
1 − Pf0 (r) ∆t→0 ∆t 1 − Pf (r, t)
173
Em palavras, pode-se escrever:
É facil perceber que esta interpretação é consequência direta da formulação do problema de falha
à primeira sobrecarga. A condição 1. imposta na equação (8.17) é consequência direta da condição
imposta da equação (8.13). A condição 2. é consequência do fato que, por definição, a taxa η(r, t)
deveria ser a taxa (condicional) de chegada da primeira sobrecarga.
É importante observar que a taxa de passagens υ+ (r, t) não reflete a importante condição 2.
imposta na equação (8.17), que é a condição de que a sobrecarga não tenha ocorrido antes de t. Ainda
assim, a aproximação de Poisson, expressa na equação (8.18), se justifica quando o nível da barreira r
é elevado e as passagens de barreira são eventos raros. Pode-se mostrar (Cramer e Leadbetter, 1967)
que a aproximação é assintóticamente exata com a barreira r → ∞. Na prática, isto significa que a
aproximação de Poisson é adequada para estruturas com baixa probabilidade de falha.
A aproximação de Poisson não é apropriada para processos de banda estreita, uma vez que para
estes processos as passagens de barreira tendem a acontecer ”em bloco”. A aproximação de Pois-
son aqui apresentada pode ser melhorada através da determinação de taxas que reflitam melhor as
condições impostas pela equação (8.17). Estas melhorias são consideradas na seção (8.3.7).
Quando o processo estocástico é estacionário e o nível da barreira é invariante no tempo, a taxa
de passagens pela barreira υ + (r, t) = υ + (r) é constante e a equação (8.19) fica:
¡ £ ¤¢
Pf (r, T ) = Pf0 (r) + (1 − Pf0 (r)) 1 − exp −υ + (r)T (8.20)
174
8.3.5 Tempo até a falha (primeira sobrecarga)
A probabilidade de falha para uma vida de projeto T pode ser avaliada como:
Pf (T ) = P [{Tf < T }]
= FTf (T )
" Z #
T
= 1 − exp − h(u)du (8.22)
0
Comparando este resultado com a expressão (8.19), percebe-se que (8.22) não reflete a condição
inicial. O valor esperado do tempo até a falha (primeira sobrecarga) é:
1
E[Tf (t)] =
h(t)
o que mostra que a função h(t) corresponde à taxa de chegada da primeira sobrecarga para um nível
de barreira r, h(t) = υ 1 (r, t).
A função h(t) descrita acima também pode ser entendida como a taxa de falhas instantânea ou
condicional (hazard function, age-specific failure rate ou conditional failure rate), tão utilizada na
engenharia para caracterizar processos de falha que ocorrem ao longo do tempo. Em aplicações
envolvendo um grande número componentes idênticos colocados em operação, a taxa instantânea de
falhas reflete quantos componentes deixam de funcionar em um instante t, em relação ao total de
componentes colocados em operação. Nestas aplicações, o tempo até a falha Tf é a variável aleatória
que descreve a vida do lote de componentes, a vida de cada componente corresponde a uma realização
desta variável.
A taxa de falhas instantânea é uma taxa condicional, que expressa a probabilidade de que uma
falha ocorra no intervalo (t, t + ∆t), dado que a falha não tenha ocorrido antes de t:
Nesta expressão fica evidente que, quando FTf (t) é muito pequeno (situação em que a Pf também
é pequena), as funções fTf (t) e h(t) são equivalentes. Pode-se notar também que a equação (8.23) é
obtida diretamente a partir da combinação das equações (?? e 8.21). O conhecimento de uma entre
h(t), fTf (t) e FTf (t) é suficiente para determinar as outras duas.
175
8.3.7 Melhorias da aproximação de Poisson
A aproximação de Poisson apresentada na seção (8.3.3) pode ser melhorada de maneira a fazer a taxa
υ + (r, t) refletir melhor as condições impostas na equação (8.17).
A primeira destas aproximações leva em conta, de maneira aproximada, a condição inicial {S(0) <
r}. Conforme vimos na seção (7.4.1), o tempo de recorrência entre passagens de barreira sucessivas
pode ser decomposto em dois segmentos, Ta e Tb , que correspondem aos tempos que o processo passa
acima e abaixo do nível r, respectivamente (figure 7-4). Na aproximação de Poisson usual, assume-se
que o tempo entre passagens sucessivas (Ta + Tb ) segue uma distribuição exponencial, de forma que o
tempo de recorrência médio é:
1
E[Tr (r)] = E[Ta (r) + Tb (r)] = (8.24)
υ + (r)
Combinando as equações (8.24) e (7.31), obtém-se:
FS (r)
E[Tb (r)] = (8.25)
υ + (r)
Quando o nível da barreira é baixo, a condição {S(0) < r} faz com que o tempo até a primeira
passagem de barreira seja significativamente menor do que o tempo entre passagens sucessivas (Ta +Tb ).
Como o tempo até a primeira passagem de barreira é também um tempo em que o processo está abaixo
do nível r, é melhor aproximar este tempo por Tb e não por (Ta + Tb ). Expressões exatas para Tb são
difíceis de determinar. Assumir que o tempo Tb seja exponencialmente distribuído é conflitante com
a mesma suposição aplicada ao tempo Ta + Tb , no entanto pode-se fazer isto como aproximação. Com
esta aproximação, a taxa η(r, t) fica:
1 υ+ (r)
η(r, t) = = (8.26)
E[Tb (r)] FS (r)
Esta é uma melhoria em relação à aproximação de Poisson (equação 8.18), que reflete a condição
inicial. Note-se que a equação (8.26) tem grande efeito para r pequeno, mas nenhum efeito à medida
que FS (r) → 1 com r → ∞.
Para processos de banda estreita, as ultrapassagens de barriera tendem a ocorrer em bloco. Devido
à variação gradual do envelope de amplitude destes processos, uma ultrapassagem do nível r no instante
t1 tem grande chance de ser seguida por outra ultrapassagem um período adiante (figura 8-3). Em
consequência, a aproximação de Poisson original se torna excessivamente conservativa.
Cada bloco de ultrapassagens do nível r pelo processo de banda estreita representa apenas uma
ultrapassagem deste nível pelo envelope do processo, ou processo amplitude A(t) (que também é um
processo estocástico). Sendo assim, a aproximação de Poisson (eq. 8.18) pode ser substituída por
(Vanmarcke, 1975):
η(r, t) = υ+
A (r) (8.27)
A taxa de ultrapassagem de barreiras do envelope, utilizando a definição de amplitude de Cramer
e Leadbetter (1966), é: √
υ+ +
A (r) = δr 2πυ S (r)
onde δ é o parâmetro espectral definido na equação (7.25). A equação (8.27) pode ser ajustada para
levar em conta a condição inicial. Seguindo o raciocínio aprsentado anteriormente, obtemos:
υ+
A (r)
η(r, t) = (8.28)
FA (r)
A equação (8.28) é apropriada para processos com largura de banda bem pequena (α → 1) e níveis
baixos de barreira. Para processos de banda larga e níveis elevados de barreira, no entanto, ultrapas-
sagens de barreira pelo envelope não correspondem necessariamente a ultrapassagens de barreira pelo
processo original. Assim, o número de ultrapassagens de barreira pelo processo amplitude torna-se
maior do que o número atual de ultrapassagens de barreira pelo processo S(t). Como a equação (8.18)
é apropriada para processos de banda larga e níveis elevados de barreira, e a equação (8.28) é apro-
priada para processos de banda estreita e níveis baixos de barreira, é possível fazer uma interpolação
entre estes dois resultados. Estimando o número de ultrapassagens de barreira qualificadas do proces-
so amplitude (isto é, passagens de barreira do envelope que são realmente seguidas por pelo menos
176
uma passagem de barreira pelo processo S(t)), Vanmarcke (1975) chega a uma estimativa do número
médio de ultrapassagem de barreira pelo processo S(t) a cada passagem de barreira pelo processo
amplitude, para um processo Gaussiano:
+ 1
E[Npc (r)] = √ (8.29)
1 − exp(−δr 2π)
+
Para processos de banda estreita e níveis baixos de barreira, o produto δr é pequeno e E[Npc ] ≈
υ+ (r)
υ+
= δr√1 2π . Para processos de banda larga e níveis elevados de barreira, o produto δr → ∞ e
A (r)
+
E[Npc ] → 1. Assumindo que as passagens qualificadas de barreira seguem um processo de Poisson, a
taxa de passagens qualificadas de barreira fica:
1 √
η(r, t) = υ+ (r) + = υ + (r)(1 − exp(−δr 2π)) (8.30)
E[Npc (r)]
Esta integral é muito semelhante à integral que caracteriza o problema de confiabilidade indepen-
dente do tempo (equação 3.24). Ela pode ser avaliada, a princípio, por simulação de Monte Carlo.
No entanto, é importante observar que cada ponto de integração da equação (8.34) representa uma
177
solução do modelo de falha a primeira sobrecarga para uma barreira condicional. Quando a dimensão
do vetor R é grande, ou quando o problema envolve mais de um processo estocástico de carregamento,
a integração direta de (8.34) se torna proibitiva. Além disto, esta solução é específica para um tempo
t, e prescisa ser repetida para se determinar a probabilidade de falha ao longo da vida da estrutura.Por
isto, esquemas alternativos para a integração de (8.34) foram desenvolvidos.
O valor rn+1 = 0 representa o limite entre falha e sobrevivência da estrutura, de forma que uma
equação de estado limite adicional ou alternativa pode ser escrita apenas em função de variáveis
aleatórias:
g(R, Rn+1 ) = Rn+1 = 0 (8.37)
Note que a variável aleatória Rn+1 dependente da realização R = r, e portanto depende do vetor R.
Isto significa que a equação adicional g(R, Rn+1 ) depende explicitamente de Rn+1 e implicitamente
de R.
Com estas preliminares, a equação (8.34) pode ser re-escrita como:
Z · ¸
Pf (T ) = P min g(r, S, t) ≤ 0 fR (r)dr
0≤t≤T
ZR
= P [{Rn+1 ≤ 0}] fR (r)dr
ZR
= fRn+1 (rn+1 | r)fR (r)dr (8.38)
g(r,rn+1 )≤0
onde fRn+1 (rn+1 | r) é a função de densidade de probabilidades da variável Rn+1 e fR (r) é a função de
densidade de probabilidades conjunta das v.a.s de resistência. A equação (8.38) é idêntica à integral de
confiabilidade independente do tempo (equação 3.24), e portanto pode ser resolvida por FOSM, FORM
ou SMC. A solução de (8.38) ao invés de (8.34) é chamada de integração rápida de probabilidades (fast
probability integration) de Wen e Chen (1987).
Esta formulação permite a solução de problemas de confiabilidade dependente do tempo utilizando
técnicas de confiabilidade independente do tempo. No entanto, ela requer conhecimento da função de
distribuição condicional fRn+1 (rn+1 | r). Recorde que os métodos FOSM e FORM estão baseados em
uma transformação do vetor R para o espaço normal padrão Y, que pode ser escrita como:
Y = Jxy · {R − Mneq }
178
Portanto, a equação de estado limite adicional no espaço Y, g(y, yn+1 ) = g(y+ ), deve ser:
Resulta que a equação (8.38) pode ser resolvida via FOSM ou FORM sem o conhecimento da
distribuição condicional fRn+1 (rn+1 | r). O problema aumentado é solucionado incluindo a variável
Yn+1 , com distribuição normal padrão e independente de Y, e utilizando a equação de estado limite
(8.41).
O problema aumentado pode ser resolvido utilizando o algoritmo HLRF (Hassofer e Lind, 1974;
Rackwitz e Fiessler, 1978). Para tanto, necessita-se conhecer o gradiente da equação de estado limite
aumentada em Y, ∇g(y+ ). O último termo deste gradiente é:
∂g(y+ )
=1
∂yn+1
d ¯
¯
υ+
ED (t) = Pθ [Ẋ(t) > 0 ∩ X(t) + θẊ(t) ≥ R]¯ (8.44)
dθ θ=0
179
Quando (ou se) as ultrapassagens pela barreira aleatória ocorrerem de forma independente, a
hipótese de Poisson pode ser utilizada, a integração sobre o tempo resulta:
µ · Z t ¸¶
+
Pf (t) < Pf0 (R) + 1 − exp − υED (v)dv) (8.45)
0
Para barreiras aleatórias, como se verá mais adiante, está hipótese raramente pode ser utilizada.
A aproximação da taxa de passagens média (ECR - Ensemble Crossing Rate) consiste em aprox-
imar a taxa de chegadas da primeira ultrapassagem pela barreira aleatória pela taxa média sobre as
realizações do processo e da barreira (Pearce e Wen, 1984). Citando Wen e Chen (1989), esta solução
é uma aproximação porque:
Portanto, tomar a média sobre a resistência torna a taxa de passagens ”dependente”, e para
salientar este fato, o índice ED - para Ensemble e Dependent - é utilizado na equação (8.43). No
capítulo (xx) a aproximação da taxa de passagens média é estudada em detalhe, e as condições para
sua utilização são estabelecidas.
. . .
observando-se que u = x1, x2 = x − u, x2 = x−x1 . Utilizando a fórmula de Rice (equação ??) e
mudando a ordem de integração pode-se re-escrever (8.46) como:
Z ∞Z ∞Z ∞
+
υX (b) = (ẋ1 + ẋ2 )fX1 Ẋ1 (u, ẋ1 )fX2 Ẋ2 (b − u, ẋ2 )dẋ2 dẋ1 du
−∞ −∞ ẋ2 =−ẋ1
Esta equação dificilmente pode ser resolvida de forma analítica. No entanto, uma aproximação
conservadora pode ser obtida integrando por partes e ampliando os limites de integração conforme
segue:
Z ∞ Z ∞ Z ∞
υ+
X (b) = ẋ1 fX1 Ẋ1 (u, ẋ1 )fX2 Ẋ2 (b − u, ẋ2 )dẋ1 dẋ2 du
−∞ −∞ 0
Z ∞Z ∞Z ∞
.
+ ẋ2 fX1 Ẋ1 (u, x1 )fX2 Ẋ2 (b − u, ẋ2 )dẋ2 dẋ1 du
−∞ −∞ 0
180
o que, integrando em relação a ẋ1 e ẋ2 fornece:
Z ∞ Z ∞
υ+
X (b) ≤ υ+
X1 (u)fX2 (b − u)du + υ+
X2 (b − u)fX1 (u)du (8.47)
−∞ −∞
onde υ+Xi (b) é a taxa de passagens do processo Xi (t) pela barreira b. A função fXi (x) é a função de
densidade do process Xi (t) para um ponto arbitrário no tempo, também chamada de distribuição de
ponto arbitrário. A equação (8.47) é conhecida como point-crossing formula.
Procedendo de maneira semelhante, obtém-se a taxa de passagens para a soma de 3 processos
estocásticos (Larrabee e Cornell, 1981):
Z ∞ Z ∞ Z ∞
υ+
X (b) ≤ υ+
X1 (u)f23 (b − u)du + υ+
X2 (u)f13 (b − u)du + υ+
X3 (b)f12 (b − u)du (8.48)
−∞ −∞ −∞
onde Z ∞
fij (x) = fXi (u)fXj (x − u)du
−∞
181
é:
υ+
i (b) = υ i qi (1 − Fi (b))
= υ i qi Pi (b)
onde:
υ i qi é a taxa observável de chegada de pulsos (de intensidade não-nula);
υ i é a taxa de chegada do pulsos de Poisson;
Pi (b) = 1 − Fi (b) é a probabilidade de que o pulso seja maior do que b e
di = υqii é a duração média dos pulsos (de intensidade não-nula).
Observe que o produto υ i di = qi define o aspecto do processo. Com υi di = qi → 1 tem-se uma
onda quadrada e com υ i di = qi → 0 tem-se um processo de pulsos esparsos.
Para uma combinação de n processos mixtos, a taxa de passagens pela barreira é dada por (Rack-
witz, 1985):
n
X
+
υ X (b) = υ i qi {P [Si ∈ Df ] − P [(Si ∈ Df ) ∩ (S ∈ Df )]} (8.51)
i=1
υ+
X (b) ≈ λ1 P1 (b) + λ2 P2 (b) + λ12 P12 (b) (8.52)
onde:
λi é a taxa de ocorrência do i − ésimo carregamento somente;λ12 é a taxa de coincidência de dois
pulsos;
P12 (b) é a probabilidade de exceder a barreira b dado a coincidência de dois pulsos.
Ultrapassagens de barreira segundo a equação (8.52) correspondem à: processos 1 e 2 atuando
individualmente (1o e 2o termos) e ambos processos ativos (3o termo - coincidência de pulsos). A
equação (8.52) pode ser generalizada para n processos de carregamento:
n
X n−1
X n
X n−2
X n−1
X n
X
υ+
X (b) ≈ λi Pi (b) + λij Pij (b) + λijk Pijk (b) + ... (8.53)
i=1 i=1 j=i+1 i=1 j=i+1 k=j+1
A taxa λijk corresponde a coincidêndia de 3 pulsos. Obviamente, quanto mais esparsos os pulsos
(υi di → 0), menor é esta taxa, e menos termos da série (eq. 8.53) prescisam ser considerados.
A determinação da probabilidade de falha condicional Pijk (b) envolve apenas variáveis aleatórias,
e portanto pode ser realizada através de métodos de confiabilidade independente do tempo, como
FORM, SORM ou SMC. Portanto, a equação (8.53) pode ser aplicada a problemas bastante complexos.
Note que como a parcela off dos processos já foi incluída na taxa de chegada dos pulsos (termos υi qi ),
a determinação da probabilidade condicional Pijk (b) deve ser feita com base na distribuição original
da variável clipada, i.e., a distribuição que caracteriza a parte não nula da intensidade.
Para processos mutualmente independentes, as taxas λ são calculadas como:
Y
λi = υ i qi [pj − υ j qj di ]
j6=i
Y
λij = υ i qi υ j qj (di + dj ) [pk ]
k6=j6=i
Y
λijk = υ i qi υ j qj υ k qk (di dj + di dk + dj dk ) [pl ] (8.54)
l6=k6=j6=i
Quando os pulsos são de curta duração (di pequeno), o termo υ j qj di dentro do produtório na
primeira linha de (8.54) pode ser desconsiderado. Isto já foi feito na segunda e terceira linha para
simplificar as taxas λij e λijk .Quando os pulsos são esparsos (υ i di → 0), os termos dos produtórios
tendem a 1 e portanto podem ser ignorados.
A solução expressa na equação (8.53) aproxima a solução de (8.51). Esta aproximação é particular-
mente boa quando os processos são esparsos. Na prática, a equação (8.53) forneçe ótimos resultados
mesmo quando a fração ativa de cada processo é da ordem de 0.2, para níveis razoavelmente altos da
182
barreira (Larrabee e Cornell, 1979).
Soluções para pulsos não-retangulares e para dependência entre pulsos são apresentadas por Wen
(1977b, 1981, 1990). Soluções para processos dependentes são apresentadas em Wen (1981). Soluções
envolvendo combinações de processos discretos com processos contínuos são discutidas em (Pearce e
Wen, 1984; Winterstein e Cornell, 1984).
Uma solução empírica para o problema de combinação de carregamentos pode ser derivada da regra
determinística de combinação de carregamentos de Turkstra (1970). Esta regra permite formular
uma sequência de problemas de confiabilidade independentes do tempo como aproximação para a
solução do problema de combinação de carregamentos estocásticos. A regra vale para o problema de
determinar o valor máximo de um processo de carregamento formado pela soma linear de n processos
componentes:
ej é o valor
onde XTi é a v.a. valor máximo do i − ésimo processo componente no intervalo [0, T ] e X
de ponto arbitrário do j − ésimo processo componente.
A probabilidade de falha final é a maior dentre as n probabilidades de falha. A expressão (8.56) é
não-conservadora, de forma que esta solução forneçe um limite inferior da probabilidade de falha real
do problema. Um limite superior da probabilidade de falha sempre pode ser calculado considerando-se
que os máximos de todos os carregamentos coincida:
à n !
X
gub (R, X) = R(R) − S XTi =0 (8.58)
i=1
A solução é aproximada, mas é adequada para calibrar normas técnicas devido à sua simplicidade.
183
8.6 PROBLEMAS MULTI-DIMENSIONAIS
The First Passage failure probability model reviewed earlier can be generalized to problems involving
more than one load process. A general problem of time variant reliability analysis involves evaluating
the probability that a vector random load process S(t) exceeds the uncertain or random resistance
R(t) of a structure or structural component at any time during the structure’s life:
· ¸
Pf (T ) = P min g(R, S, t) ≤ 0 (8.59)
0≤t≤T
where g(r, s, t) = 0 defines the failure surface which divides the failure {r, s|g(r, s, t) < 0} and survival
{r, s|g(r, s, t) > 0} domains. The problem is depicted in figure ?? for a scalar load and resistance.
In the context of Structural Reliability, these problems are referred to as multi-dimensional or
multi-variate problems, in contrast to scalar problems involving a single load process. The up-crossing
rate concept is generalized to that of an out-crossing rate, i.e., the rate at which the random vector
load process crosses out of a safety domain.
Multi-variate solutions for out-crossing rates are based on a generalization of the result (equation
??) by Rice (1954). For the multi-dimensional problem, Rice’s result is generalized as (Belyaev, 1968):
Z ·
υ+
D (s) = E[S| S(t) = s]+ fS (s)ds
g(s)=0
Z Z ∞
= xf · (s, x) dx ds (8.60)
g(s)=0 0 SS
where S(t) is a vector load process, Df = {s|g(s) ≤ 0} is the failure domain, g(s) = 0 is the failure
·
domain boundary (also called failure surface) and E[S| S(t) = s]+ fS (s) is the local (out)-crossing
rate. Evaluation of the mean out-crossing rate through equation (8.60) is not a straightforward task.
Some closed form results exist for stationary Gaussian load processes and for geometrically simple
failure surfaces (several references in Hagen and Tvedt, 1991; Melchers, 1999). The solution becomes
increasingly involved when (not necessarily in this order):
1. the failure surface or limit state function is not given in closed form but is numerical (eg. finite
element model);
2. the failure surface is uncertain (i.e., when it is a function of resistance/system random variables);
3. the failure surface is time dependent (problem of resistance degradation);
4. the load processes are not stationary;
5. the load processes are non-Gaussian.
When the failure surface is time dependent and/or when the load processes are not stationary, out-
crossing rates in eq. (8.60) become time dependent. Hence, integration of local out-crossing rates over
the failure surface has to be repeated over time. When the failure surface is uncertain, out-crossing
rates in eq. (8.60) become conditional crossing rates, conditional to a particular outcome R = r of
the resistance random variables. Generalizing (8.60) for a time-variant resistance one obtains:
Z ·
+ ·
υ D (r, t) = E[(S−g(r, t))| S(t) = s]+ fS (s)ds (8.61)
g(r,t)=0
The unconditional failure probability is obtained by taking the expectation over the resistance random
variables, just as in the scalar case. Putting it all together and neglecting Pf0 , solution of a typical
problem becomes:
Z ( " Z ÃZ
T ½Z ¾ ! #)
∞
Pf (T ) ' 1 − exp − xf · (s, x)dx ds dt fR (r)dr (8.62)
R 0 g(r,t)=0 0 SS
This solution can be described as a nested integration of (1) local out-crossing rates over (2) conditional
failure surfaces, over (3) time and over (4) resistance random variables. The difficult nested integration
184
in (8.62) was written explicitly to stress the point that solution becomes very involved. If the failure
surface is numerical or if it cannot be approximated by any of the simple geometrical forms for
which closed form solutions are available, solution of equations (8.61 and 8.62) has to be performed
numerically. Some of these solutions are reviewed in the sequel.
minimize: |ys |
subject to: g(ys ) = 0 (8.64)
The Fast Probability Integration technique can be employed to take the expectation over the resistance
random variables. This converts the two outer integrations in equation (8.62) in an augmented FORM
problem:
with V = R/A + cte being a radial variable. This solution involves evaluation of the resistance
distribution in each simulated direction α, fV |A (v|α) and the directional probability of failure:
à " Z #!
T
Pf (v|α) = Pf0 (v|α) + 1 − exp − υ+
D (v|α)dt (8.67)
0
where:
·
υ+ +
D (v|α) = E[S(t) · n(r|α)] fS (r) (8.68)
185
This solution is significantly simplified when the expectation over R is taken over the mean out-
crossing rate: Z ∞ ·
υ+
D (α) = E[S(t) · n(r|α)]+ fS (r) fV |A (r|α)dr (8.69)
0
since the unconditional out-crossing rate is then obtained directly by an integration over α:
Z
υ+D (s) = fA (α) υ +
D (α)dα (8.70)
A
It is noted that equation (8.69) represents the EUR approximation applied in the directional
simulation solution of multi-variate problems.
“the probability of having an out-crossing in the vanishing time interval (t, t + ∆t),
which is equal to the probability that process S(t) is in the safe domain at time t and
crosses out of the safe domain during interval ∆t.”
Equation (3) is useful to formulate the problem, but it is no good for computational purposes, as
will be seen in the sequel. A better formulation is obtained by expanding G(r, S, t) = 0 to first order
at t:
·
G(r, S, t + ∆t) = G(r, S, t) + ∆tG(r, S, t) (8.72)
Replacing equation (8.72) in (8.71) leads to:
1 ·
υ+
D (r, t) = lim P [G(r, S, t) > 0 ∩ G(r, S, t) + ∆tG(r, S, t) < 0] (8.73)
∆t→0 ∆t
A figura (8-5) mostra os eventos associados às probabilidades expressas na equação (8.74). Esta
equação representa uma aproximação em diferenças finitas da derivada da probabilidade de falhas do
sistema parallelo em colchetes. Isto permite escrever:
¯
d · · ¯
+
υ D (r, t) = Pθ [G(r, S, t) < 0 ∩ G(r, S, t) + θG(r, S, t) < 0]¯¯ (8.75)
dθ θ=0
d
onde Pθ [·] é a probabilidade associada ao systema em parallelo e dθ Pθ [·]|θ=0 representa a medida de
sensibilidade desta probabilidade.
Equation (8.75) can be evaluated by FORM or SORM using the limit state functions:
·
m1 (r, S, t) = G(r, S, t)
·
m2 (r, S, t) = G(r, S, t) + θG(r, S, t) (8.76)
186
The only requirement is that the algorithm for computation of sensitivity factors be capable of iden-
tifying sensitivity due to rotation of the limit state function.
The solution is very general and practical, and can be applied for Gaussian and non-Gaussian,
stationary and non-stationary load processes, and for time-variant limit state functions. When the
problem is stationary, only one evaluation of (8.75) is necessary, whereas for non-stationary problems
this evaluation has to be repeated over time. The solution in equation (8.75) is conditional on a
particular outcome r of the resistance random variables, and that has been made explicit in the
formulation.
With the parallel system sensitivity solution, it is particularly simple to calculate ensemble crossing
rates (i.e. crossing rates that are averaged over R.It suffices to include the random resistance variables
in the parallel system sensitivity analysis:
¯
d · · ¯
+
υD (t) = Pθ [G(R, S, t) < 0 ∩ G(R, S, t) + θG(R, S, t) < 0]¯¯ (8.77)
dθ θ=0
Computation of (8.77) represents little extra effort in comparison to (8.75), due to the increased
dimensionality of the problem. The whole solution, however, is still very simple. It takes a couple of
time-invariant sensitivity analysis over variables R and S (for a time-variant barrier) and a numerical
integration over time. It is important to note that implied in equation (8.77) is, of course and again,
the EUR approximation.
In (Hagen, 1992) the parallel system approach is compared with Laplace asymptotic solution and
with approximate formulas for the computation of crossings of a scalar Gaussian process trough a
time-dependent barrier. Der Kiureghian and Li (1996) employ the parallel system formulation in
non-linear random vibration analysis. Vijalapura et. all (2000) use the parallel system formulation
in the analysis of hysteretic oscillators with uncertain parameters. In (Der Kiureghian, 2000) it is
used to compute out-crossing rates in context of a discretization of the load processes into a set of
correlated random variables.
Example
The ideal rigid-plastic frame studied in (Melchers, 1992 and Ditlevsen, 1983) is considered as an
application example. The frame is loaded by stochastic load processes S1 (t) to S3 (t) as shown in
figure (8-6). The processes are assumed stationary, continuous, Gaussian distributed with mean
vector:
µS = {1, 1, 2}T
and covariance matrix:
1 0.5 0
CSS (τ ) = 0.25R(t) 1 0
sym. 1
where the correlation function is taken as:
R(t) = exp [− |τ |]
The uncertain structural resistance (strength of the plastic hinges) is represented by random vari-
able R. The collapse mode equations (limit state functions) are:
G1 (t) = 4R − S1 (t) = 0
G2 (t) = 4R − S2 (t) = 0
G3 (t) = 6R − S3 (t) = 0
G4 (t) = 8R − S1 (t) − S3 (t) = 0
Frame failure is characterized if any of the four limit state functions is violated. Hence, the limit
state function for the series system is:
m
G(t) = min[Gi (t)]
i=1
For a series system, the load process derivative solution for out-crossing rates is (Hagen and Tvedt,
1991):
187
¯
m
d X £ m ¤¯¯
υ+
D (t) = P ∩j=1,j6=i {Gj (t) > 0 ∩ mi,1 (t) < 0 ∩ mi,2 (t, θ) < 0} ¯ (8.78)
dθ i=1 ¯
θ=0
where the safety margins for the parallel system computation are:
.
mi,1 (t) = Gi (t)
.
mi,2 (t, θ) = Gi (t) + θGi (t)
The parallel system solution in equation (8.78) involves 5 component limit state functions, i.e.,
3 limit state functions of the original series system and the two limit state functions for the parallel
system crossing rate computation. Hence, computation of the crossing rates using equation (8.78)
requires an algorithm capable of evaluation the intersection probability of 5 limit state functions.
Probability bounds are generally not accurate enough for evaluating such multiple intersections. In
this example, importance sampling is used in the computation.
The solution is computed for varying values of the resistance parameters. Figure (8-7) shows
crossing rate results for varying between 0.4 a 1.0 and varying between 0.0 and 0.09 (load process
units). These results compare favourably with those of Melchers (1992), computed using directional
simulation. Results shown in figure 10 where obtained using 104 (importance) samples in the parallel
system crossing rate computation.
These results where obtained using parameter . It is noted that the number of samples required
in the parallel system evaluation (eq. 8.78) depends directly on the value of θ. For θ smaller than
0.001, similar results are obtained, but requiring a (much) larger number of simulation samples. This
is due to the narrowness of the failure domain. For or greater, incorrect results where obtained. For ,
correct results are obtained with a reasonable number of samples.
The (ensemble) out-crossing rates in Figure (8-7) are the exact (to the accuracy of the computation)
crossing rates for the random failure domain for any given time. However, using these out-crossing rates
to compute (first passage) failure probabilities may lead to gross but conservative errors. Ensemble
crossing rate error expressions presented in (Beck, 2005) can be used to estimate the error in this
example. This can be done by estimating the ECR error for each limit state function individualy
(in each case, a scalar problem). Figure (8-8) shows such error estimates for resistance parameters
R = N (1.0, 0.3) as a function of the number of load cycles (w0 t). It can be seen that the contribution
to the ECR error is very much the same for each limit state function. Hence, one can expect the error
for the frame out-crossing rate analysis to be of the same order of magnitude.
188
8.7 FIGURAS
r, s
f R ( r , t0 )
r ( t ) = realização de R (t )
f S ( s, t ) s ( t ) = realização de S (t )
Figura 8-1: Problema de confiabilidade estrutural típico envolvendo carregamento estocástico e vari-
ação da resistência no tempo
S (t ), r
barreira r (t ) = r
f S ( s, t ) s (t ) = realização de S (t )
189
S (t ), r
r
s (t )
Figura 8-3: Passagens de barreira em bloco característica de processos estocásticos de banda estreita.
r, s
f R0 ( r ) realizações de R(t )
r1 (t )
r2 (t )
f S ( s, t ) realização de S (t )
r3 (t )
G ( t )
G (t ) = 0
G (t )
G (t ) = 0 G ( t ) + θ G ( t ) = 0
190
S1 (t ) S 2 (t )
S3 (t )
2a 2a
(1) (2)
(4)
(3)
-2
Log10HυD+L
-4
-6 Solution :
µR= 0.4
µR= 0.6
-8 µR= 0.8
µR= 1.0
-10
Variance Hσ R 2L
0 0.02 0.04 0.06 0.08
Resistance
Figura 8-7: Crossing rate results as a function of resistance parameters for ideal rigid-plastic frame
problem.
1.75
1.5
1.25
ECR Error
G3 HtL
0.5
0.25 G4 HtL
H w0tL
0 20 40 60 80 100
Number of load cycles
Figura 8-8: Predicted ECR error for individual failure surfaces of ideal rigid-plastic frame problem
191
192
Capítulo 9
CONFIABILIDADE E AS
NORMAS DE PROJETO
9.1 INTRODUÇÃO
193
9.2 BREVE HISTÓRICO
Nesta seção traçamos um paralelo entre os principais desenvolvimentos na teoria de confiabilidade
estrutural ,e como estes desenvolvimentos foram gradualmente sendo incprporados nas normas técnicas
de projeto estrutural.
194
Este formato utiliza um fator de segurança central (F.S.) para criar uma margem de segurança entre
a tensão resistente do material e a tensão de trabalho. Projeta-se a estrutura de forma que a máxima
tensão atuante seja sempre menor ou igual à tensão admissível. Em geral, projeta-se a estrutura com
base em uma análise elástica.
As normas antigas já reconheciam a existência de incertezas no projeto estrutural, e por isto a neces-
sidade de utilizar-se um fator de segurança central. No entanto, a maneira como estas incertezas eram
abordadas nas primeiras normas mostrou-se bastante rudimentar. Sem entrar em detalhes, valores
característicos são utilizados como valores representativos de resistência. Carregamentos representa-
tivos ou nominais são determinados em função de um período de retorno, período este relacionado
com a vida projetada da estrutura. Combinações empíricas de carregamentos são utilizadas.
Neste tipo de projeto, a segurança e a probabilidade de falha não são consideradas explicitamente.
Admite-se apenas que as falhas são raras e os riscos são aceitavelmente baixos. Em verdade, logo
se descobriu ser mais fácil projetar uma estrutura segura do que avaliar a probabilidade de falha da
mesma. Ainda que o preço a pagar por esta negligência fosse o possível super- ou sub- dimensionamento
da mesma.
9.4.1 Eurocode
· ¸ " n #
R X
FR ≥S γ i Qi (9.1)
γR i=1
195
onde VXi é o coeficiente de variação da variável Xi e os αi são os cossenos diretores do hiperplano
tangente à equação de estado limite no ponto de projeto (eq. 4.8).
Projetar uma estrutura com índice de confiabilidade β significa projetar esta estrutura no ponto
de projeto.
196
de modo/consequência de falhas ou de material estrutural. Na calibração da norma A58, por
exemplo, adotou-se os valores β alvo = 3 para combinações D + L, β alvo = 2.5 para combinações
D + L + W e β alvo = 1.75 para terremotos. Estes valores correspondem aproximadamente aos
índices obtidos nas normas anteriores, como pode ser verificado nas figuras 9-1 e 9-2. Para combi-
nação de carregamentos envolvendo terremotos, o β alvo é menor do que nas demais combinações,
o que pode parecer estranho a primeira vista. Ocorre que, apesar das consequências de falhas
por terremoto serem severas, as forças envolvidas são muito grandes, de maneira que projetar
estruturas com elevada confiabilidade contra terremotos se torna proibitivamente caro. O índice
de confiabilidade β alvo = 1.75 reflete um balanço entre segurança e o custo de construção da
estrutura. De fato, é neste balanço de custos que se pode encontrar o β alvo mais econômico para
cada situação, e nesta direção devem ocorrer os avanços futuros, conforme veremos na seção
9.7.1.
8. Observação dos coeficientes de segurança parciais implícitos na norma antiga. Esta etapa não é
essencial, mas ajuda a determinar o formato das equações de verificação da nova norma. Para
cada um dos pontos de calibração determinados anteriormente, reprojeta-se as estruturas de
maneira a se atingir o índice de confiabilidade alvo. Já no formato da nova norma, verifica-se
qual o valor dos coeficientes parciais de segurança que resultariam na mesma estrutura, com o
mesmo β alvo . Resultados obtidos na calibração da norma americana são mostrados nas figuras
9-3 e 9-4, para vigas de aço e concreto, respectivamente. Percebe-se nestas figuras que os
coeficientes φ e γ D (redução de resistência e majoração do peso próprio, respectivamente), são
aproximadamente constantes ao longo de todas as faixas de carregamento (L/D e W/D). O
mesmo já não acontece com os coeficientes γ L e γ W . Isto significa que, para se atingir o β alvo
de forma constante ao longo de todas as condições de projeto, os coeficientes γ L e γ W teriam
que ser variáveis. Na prática, isto não é adequado, pois dificultaria a vida do projetista. Busca-
se coeficientes parciais que sejam constantes pelo menos para determinada classe de estruturas
e combinação de carregamentos. Estabelecer coeficiente parciais de segurança constantes, no
entanto, implica em que o β alvo não poderá ser atingido de maneira uniforme.
9. Definição dos coeficientes de segurança parciais da nova norma. A opção por coeficientes parciais
constantes faz com que o β alvo não possa ser atingido de maneira uniforme ao longo de todo o
espectro de estruturas pertencentes ao escopo de determinada norma. Ainda assim, busca-se um
conjunto de coeficientes parciais de segurança que minimize a diferença entre os β c ‘s individuais
e o β alvo . Isto pode ser feito por mínimos quadrados através da expressão:
n
X 2
W = wi [β alvo − β ci (φ, γ D , γ L , γ W , ...)]
i=1
onde wi são pesos que permitem dar preferência a determinadas condições de projeto e β ci é o
índice de confiabilidade correspondente ao i-ésimo ponto de calibração.
1. International Council for Research and Innovation in Building and Construction, com suporte
das Nações Unidas;
197
4. International Association for Bridge and Structural Engineering;
5. International Union of Laboratories and Experts in Construction Materials, Systems and Struc-
tures.
Em 2001, este grupo de trabalho publicou um documento intitulado Probabilistic Model Code
(modelo de norma probabilística), que apresenta as principais diretrizes para a formulação (ou revisão)
de normas técnicas de projeto estrutural com embasamento na teoria de confiabilidade estrutural.
Entre outros resultados, este trabalho apresenta uma tentativa de definição de índices de confiabilidade
mínimos para projetos estruturais. Estes índices são apresentados nas tabelas abaixo.
Tabela 9.3: Índices de confiabilidade alvo para estado limite de serviço irreversível.
Custo relativo da
medida de segurança β alvo Pf alvo
Alta 1.3 1 · 10−1
Normal 1.7 5 · 10−2
Pequena 2.3 1 · 10−2
198
9.8 FIGURAS:
Figura 9-1: Índices de confiabilidade da norma antiga para combinação de ações gravitacionais.
Figura 9-2: Índices de confiabilidade da norma antiga para combinação de ações gravitacionais e vento.
199
Figura 9-3: Fatores de segurança parciais para atingir β alvo = 2.5, vigas de aço.
Figura 9-4: Fatores de segurança parciais para atingir β alvo = 2.5, vigas de concreto armado.
200
Figura 9-5: Índices de confiabilidade da nova norma para os fatores de segurança parciais propostos.
201
202
Referências Bibliográficas
[1] Ang, A. H-S.; Tang, W. H.; 1975: Probability Concepts in Engineering Planning and Design ,
Volume I: Basic Principles; John Wiley & Sons.
[2] Ang, A. H-S.; Tang, W. H.; 1990: Probability Concepts in Engineering Planning and Design ,
Volume II: Decision, Risk and Reliability; John Wiley & Sons.
[3] Ang, G. S.; Ang, H-S.; 1994: Adaptive Kernel Method for Evaluating Structural System Reliability,
6th International Conference on Structural Safety and Reliability.
[5] ANSYS Installation and Configuration Guide for Release 5.3 ; outubro de 1996.
[6] ANSYS User’s Manual for Revision 5.0, Volumes I e II - Procedures, 23 de dezembro de 1992.
[7] Araújo, J. M. e Awruch, 1992: Analise Estrutural Probabilística pelo Método dos Elementos
Finitos, Departamento de Engenharia Civil, UFRGS.
[8] ASCE - American Society of Civil Engineers, 1980: Recommended Design Loads for Bridges.
[9] Beck, A. T.; 1996: Cálculo da Confiabilidade de uma Viga de Ponte Rolante; Trabalho de Diplo-
mação, Departamento de Engenharia Mecânica, UFRGS.
[10] Beck, A. T. e da Rosa, E., 1999: ACE-Pro - Manual para Utilização e Programação, Grupo de
Análise e Projeto Mecânico, Curso de Pós Graduação em Engenharia Mecânica, UFSC.
[11] Bjerager, P., 1988: Probability Integration by Directional Simulation, Journal of Engineering
Mechanics, vol. 114, número 8, pg. 1285-1301.
[12] Bjerager, P., 1990: On Computation Methods for Structural Reliability Analysis, Structural Safety,
vol.9, pg. 79-96.
[13] Borgund, U. e Bucher, C. G.; 1986: Importance Sampling Procedure Using Design Point - ISPUD
- User’s Manual, Institute für Mechanik, Universität Innsbruck, Innsbruck.
[14] Borgund, U.; Ouypornprasert, W. e Prenninger, P. H. W., 1986: Advanced Simulation Methods
for the Estimation of Systems Reliability, Internal Working Report 19, Institute für Mechanik,
Universität Innsbruck, Innsbruck.
[15] Bratley, P.; Fox, B. L.; Schrage, L. E.; 1987: A Guide to Simulation, Springer.
[16] Breitung, K., 1984: Asymptotic Approximations for Multinormal Integrals, Journal of Engineering
Mechanics, ASCE, vol. 110 (3), 357-366.
[17] Bucher, C. G., 1988: Adaptive Sampling - An Interative Fast Monte Carlo Procedure, Structural
Safety, vol. 5, pg. 119-126.
[18] Bucher, C. G. e Bourgund, U., 1990: A Fast and Efficient Response Surface Aproach for Structural
Reliability Problems, Structural Safety, vol. 7, pg. 56-66.
[19] Bucher, C. G., Pradlwarter e Schuëller, G. I.; 1994: COSSAN - Computational Stochastic Struc-
tural Analysis Perspectives of Software Development, 6th International Congress for Structural
Safety and Reliability, pg. 1733-1739.
203
[20] Chia, C. e Ayyub, B.; 1994: Conditional Sampling for Simulation Based Structural Reliability
Assesment, 6th International Congress for Structural Safety and Reliability, pg. 1233-1239.
[21] Clarkson, B. L. An Introduction to Random Vibration Analysis; Institute of Sound and Vibration;
University of Southampton.
[22] Ditlevsen, D.; 1981: Principle of Normal Tail Aproximation, Journal of the Engineering Mechan-
ics Division, ASCE, vol. 107, no EM6, pg. 1191 - 1208.
[23] Ditlevsen, O. e Bjerager, P.; 1986: Methods of Structural Systems Reliability, Structural Safety,
volume 3, pg. 195-229.
[24] Dolinski, K.; 1983: First Order Second Moment Aproximation in Reliability of Structural Systems:
Critical Review and Alternative Approach, Structural Safety, vol. 1, pg. 211-231.
[25] Feijóo, R. A. e Taroco, E., 1993: Introducción al Análisis de Sensibilidad, Laboratório Nacional
de Computação Científica, Rio de Janeiro.
[26] Fiessler, B., Neumann, H.-J. e Rackwitz, R.; 1979: Quadratic Limit States in Structural Reliabil-
ity, Journal of the Engineering Mechanics Division, vol. 105, Número EM4, pg. 661-675.
[27] Frangopol, D. M. e Fu, G., 1989: Limit States Reliability Interaction in Optimum Design of
Structural Systems, 6th International Congress for Structural Safety and Reliability, pg. 1879-
1886.
[28] Freudenthal, A. M.; 1947: The Safety of Structures, American Society of Civil Engineers Trans-
actions, vol. 112, pg. 125-180.
[29] Gao, L. e Haldar, A.; 1994: Nonlinear SFEM-based Reliability for Space Structures, 6th Interna-
tional Congress for Structural Safety and Reliability, pg. 325-332.
[30] Gopalakrishna, H. S. e Donaldson, E.; 1991: Practical Reliability Analysis Using a General Pur-
pose Finite Element Program, Finite Element in Analysis and Design 10, pg. 75 - 87, Elsevier.
[31] GRANTE - Grupo de Análise e Projeto Mecânico, 1997: Estudo da Viabilidade Técnica de
Proposta Alternativa de Recuperação da Ponte Hercílio Luz - Relatório Final.
[32] Hasofer, A. M. e Lind, N. C.; 1974: Exact and Invariant Second Moment Code Format, Journal
of Engineering Mechanics vol. 100(1), pg. 111-121.
[33] Hohenbichler e Rackwitz, R., 1981: Non-Normal Dependent Vectors in Structural Reliability,
Journal of Engineering Mechanics vol. 107, No EM6, pg. 1227 - 1238.
[34] Hohenbichler, M., Golwitzer, S., Kruse, W. e Rackwitz, R.; 1987: New Light on First and Second
Order Reliability Methods, Structural Safety, vol. 4, pg. 267-284.
[35] Iman, R. L.; Canover, W. J.; 1980: Small Sample Sensitivity Analisys Techniques for Comput-
er Models with an Application to Risk Assesment, Communications in Statistics, Theory and
Methods.
[36] Ishie, K. e Suzuki, M.; 1987: Stochastic Finite Element Method for Slope Instability Analysis,
Structural Safety 4, pg. 111-129.
[37] Kapur, K. C.; Lamberson, L. R.; 1977: Reliability in Engineering Design, John Wiley & Sons.
[38] Karamchandani, A.; Bjerager, B.; Cornell, C. A.; 1989: Adaptive Importance Sampling, 5th
International Conference on Structural Safety and Reliability, pg. 855-862.
[39] Kiureghian, A. D.; Asce, M. e Liu, P-L.; 1986: Structural Reliability Under Incomplete Probability
Information, Journal of Engineering Mechanics no 1, pg 85-103.
[40] Kiureghian, A. D., Lin, H-Z. e Hwang, S-J., 1987: Second Order Reliability Approximations,
Journal of Engineering Mechanics, vol. 113, no 8, pg. 1208-1225.
204
[41] Liu, P-L. e Kiureghian, A. D.; 1989: Finite Element Reliability of Two Dimensional Continua
with Geometrical Nonlinearity, 5th International Congress for Structural Safety and Reliability,
pg. 1089-1096.
[42] Liu, P-L. e Kiureghian, A. D.; 1989: Finite Element Reliability Methods for Geometrically Non-
linear Stochastic Structures, Report UCB/SEMM-89/05, Department of Civil and Environmental
Engineering, University of California, Berkeley.
[43] Liu, P-L. e Kiureghian, A. D.; 1991: Optimization Algorithms for Structural Reliability, Structural
Safety, vol. 9, pg. 161-177.
[44] Liu, P-L. e Kiureghian, A. D.; 1997: Finite Element Reliability of Geometrically Nonlinear Un-
certain Structures, Journal of Engineering Mechanics, Vol. 117, no 8, pg. 1806-1825.
[45] Madsen, H. O; 1988: Omission Sensitivity Factors; Structural Safety 5, pg. 35-45.
[46] Mahadevan, S. e Haldar, A.; 1991: Practical Random Field Discretization in Stochastic Finite
Element Analysis, Structural Safety 9, pg. 283-304.
[47] Maymon, G.; 1993: Probability of Failure of Structures Whitout a Closed Form Failure Function;
Computers & Structures, vol. 49, no 2, pg. 301-303.
[48] Maymon, G.; 1994: Direct Computation of the Design Point of a Stochastic Structure using Finite
Element Code; Structural Safety, vol.14, pg. 185-202
[49] Moses, F. Approaches to Structural Reliability and Optimization, em ”An Introduction to Struc-
tural Optimization”, Case Western Reserve University, Cleveland, Ohio, pg. 81-120.
[50] Orisamolu, I. R.; Liu, Q. e Chernuka, M. M.; 1994: Probabilistic Reliability Analysis using General
Purpose Commercial Computer Programs; 6th International Congress for Structural Safety and
Reliability, pg. 1395-1398.
[52] Rackwitz, R. e Fiessler, B.; 1978: Structural Reliability Under Combined Load Sequences, Com-
puters and Structures vol. 9, pg. 489-494.
[53] Reh, S., Brüchner-Foit, A. e Böhm, F.; 1994: Reliability Analysis of Complex Structures with
Random Material Properties and Random Geometry; 6th International Congress for Structural
Safety and Reliability, pg. 399-402.
[54] Riera, J. A.; 1993: Introdução à Confiabilidade na Engenharia; Apostila da disciplina ”Introdução
a Confiabilidade em Engenharia”, Departamento de Engenharia Civil, UFRGS.
[55] Rocha. M. M., 1996: Simulação de Monte Carlo com Amostragem por Importância: Fundamentos
Teóricos e Programação, Laboratório de Dinâmica Estrutural e Confiabilidade, Departamento de
Engenharia Civil, UFRGS.
[56] Rosa, E. da; 1976: Confiabilidade em Sistemas Estruturais, Publicação GRANTE - Grupo de
Análise de Tensões, Curso de Engenharia Mecânica, UFSC.
[57] Rubinstein, R. Y.; 1981: Simulation and the Monte Carlo Method, John Wiley & Sons.
[58] Schuëller, G. I. e Stix, R.; 1987: A Critical Apraisal on Methods to Determine Structural Relia-
bility, Structural Safety 4, pg. 293-309.
[59] Shinozuka, M.; 1983: Basic Analysis of Structural Safety, Journal of Structural Engineering vol.
109(3), pg. 721-740.
[60] Siddall, J. N., 1972: Analytical Decision-Making in Engineering Design, Prentice-Hall Inc.
[61] Silva Jr., C. R. A. da; 1998: Análise de Confiabilidade Estrutural Adaptativa de Componentes
Mecânicos Utilizando Análise de Sensibilidade, Dissertação de Mestrado, Pós-graduação em En-
genharia Mecânica, UFSC.
205
[62] Steinman, D. B. e Groove, W. G.; 1928: The Eye-bar Cable Suspension Bridge at Florianópolis;
Brazil ; ASCE paper 1662.
[63] Tan, R. Y. e Lu, I. Y.; 1994: Stochastic Finite Element Analysis of Structures, 6th International
Congress for Structural Safety and Reliability, pg. 375-380.
[64] Yonezawa, M.; Okuda, S.; 1994: An Improved Importance Sampling Density Estimation for
Structural Reliability, 6th International Conference on Structural Safety and Reliability.
[65] Zhang, Y. e Kiureghian, A. D., 1994: Probability of Damage Excursion in a Continuum with
Random Field Properties, 6th International Conference on Structural Safety and Reliability, pg.
1763-1767.
[66] Zhang, Y. e Kiureghian, A. D., 1997: Finite Element Reliability Methods for Inelastic Structures,
Report UCB/SEMM-97/05, Department of Civil and Environmental Engineering, University of
California, Berkeley.
206
Referências Bibliográficas
[1] ASCE, 1982: Fatigue Reliability - A State of the Art Report by the Committee on Fatigue and
Fracture Reliability, Journal of the Structural Division, ASCE, No. 108(1), pp. 1 - 88.
[2] Ayala-Uraga, E. and Moan, T., 2002: System Reliability Issues of Offshore Structures Considering
Fatigue Failure and Updating Based on Inspection, 1st International ASRANet Colloquium, July
2002, Glasgow, Scotland.
[3] Barson, J. M. and Rolfe, S. T., 1987: Fracture and Fatigue Control in Structures: Applications of
Fracture Mechanics, 2nd edition, Englewood Cliffs, NJ, 1987.
[4] Bea, J. A., Doblare, M. and Gracia, L., 1999: Evaluation of the Probability Distribution of Crack
Propagation Life in Metal Fatigue by means of Probabilistic Finite Element Method and B-models.,
Engineering Fracture Mechanics, vol. 63 (1999), pp. 675- 711.
[5] Beck, A.T., 1999: A Method of Reliability Analysis Using Finite Elements (in Portuguese), Masters
thesis, Department of Mechanical Engineering, Federal University of Santa Catarina, SC, Brazil.
[6] Beck, A.T. and Melchers, R.E., 2002: Comparison of Some Methods for Fatigue and Fracture
Reliability Analysis under Random Loading, in Advances in Mechanics of Structures and Materials,
Loo, Chowdhury and Fragomeni (eds.), Swets & Zeitlinger, pp. 449 - 454.
[7] Beck, A.T. and Melchers, R.E., 2002(b): On the Ensemble Up-crossing Rate Approach to Time
Variant Reliability Analysis of Uncertain Structures, Computational Stochastic Mechanics, Spanos
and Deodatis (eds.), Milpress, Roterdam, pp. 43 - 52.
[8] Beck, A.T. and Melchers, R.E., 2004: On the Ensemble Up-crossing Rate Approach to Time
Variant Reliability Analysis of Uncertain Structures, Probabilistic Engineering Mechanics, 19, pp.
9-19.
[9] Beck, A.T. and Melchers, R.E., 2003(b): Fatigue and Fracture Reliability Analysis Under Random
Loading, Computational Fluid and Solid Mechanics, K.J. Bathe (editor), Elsevier, pp. 2201 - 2203.
[10] Beck, A.T. and Melchers, R.E.: Barrier Failure Dominance in Time Variant Reliability Analysis,
submitted for publication in Probabilistic Engineering Mechanics, December 2003.
[11] Beck, A.T. and Melchers, R.E.: Overload Failure of Structural Components under Random Crack
Propagation and Loading - a Random Process Approach -, submitted for publication in Structural
Safety, December 2003.
[12] Belyaev, Y.K., 1968: On the Number of Exits Across the Boundary of a Region by a Vector
Stochastic Process, Theory Prob. Appl., Vol. 13, No. 2, pp. 320 - 324.
[13] Benjamin, J.R. and Cornell, C.A., 1970: Probability, Statistics and Decision for Civil Engineers,
McGraw-Hill Book Company, New York.
[14] Berens, A.P., 1996: Applications of Risk Analysis to Ageing Military Aircraft, Sampe Journal,
Vol. 32, No. 5, 1996.
[15] Besterfield, G. H., Liu, W. K., Lawrence, M. A. and Belytschko, T., 1991: Fatigue Crack Growth
Reliability by Probabilistic Finite Elements, Computer Methods in Applied Mechanics and Engi-
neering 86 (1991), pp. 297 - 320.
207
[16] Bogdanoff, J.L., 1978: A New Cumulative Damage Model, Part I, Journal of Applied Mechanics
45, pp. 245 - 250.
[17] Bouyssy, V., Naboishikov, S.M. and Rackwitz, R., 1993: Comparison of Analytical Counting
Methods for Gaussian Processes, Structural Safety 12 (1993), pp. 35 - 57.
[18] Cherng, R.-H. and Wen, Y.K., 1994: Reliability of Uncertain Nonlinear Trusses Under Random
Excitation I, Journal of Engineering Mechanics, ASCE, Vol. 120, No. 4, pp. 733 - 747.
[19] Cramer, H. and Leadbetter, M.R., 1967: Stationary and Related Stochastic Processes, John
Wiley and Sons, NY.
[20] Ditlevsen, D., 1981: Principle of Normal Tail Approximation, Journal of the Engineering Me-
chanics Division, ASCE, vol. 107, no EM6, pg. 1191 - 1208.
[21] Ditlevsen, O., 1986: Duration of Gaussian Process Visit to a Critical Set, Probabilistic Engineer-
ing Mechanics, vol. 1, pp. 82 - 93.
[22] Ditlevsen, O., 1986(b): Random Fatigue Crack Growth - A First Passage Problem, Engineering
Fracture Mechanics, Vol. 23, No. 2, pp. 467 - 477.
[23] Ditlevsen, O. and Sobczyk, K., 1986: Random Fatigue Crack Growth with Retardation, Engi-
neering Fracture Mechanics, Vol. 24, No. 6, pp. 861 - 878.
[24] Ditlevsen, O. and Madsen, H.O., 1983: Transient Load Modeling: Cliped Normal Processes, J.
Engineering Mechanics Division, ASCE, 109 (2) 495 - 515.
[25] Ditlevsen, O. and Madsen, H.O., 1996: Structural Reliability Methods, John Wiley and Sons,
Chichester, England.
[26] Dirlik, T., 1985: Applications of Computers in Fatigue, Ph. D. Thesis, University of Warwick.
[27] Dolinski, K. and Colombi, P., 1999: Fatigue Lifetime under Stochastic Loading with Random
Overloading Pulse Trains, Computer Methods in Applied Mechanics and Engineering, vol. 168
(1999), pp. 221 - 241.
[28] Dover, W.D. and Hibbert, R.D., 1977: The Influence of Mean Stress and Amplitude Distribution
on Random Load Fatigue Crack Growth, Engineering Fracture Mechanics 9, 251 - 263.
[29] Dowling, N. E., 1985: Fatigue Failure Predictions for Complicated Stress-Strain Histories, Journal
of Materials 7 (1), 71 - 87.
[30] Ghanen, R.G. and Spanos, P.D., 1991: Stochastic Finite Elements: A Spectral Approach,
Springer-Verlag, NY.
[31] Ellyin, F., 1997: Fatigue Damage, Crack Growth and Life Prediction, Chapman & Hall.
[32] Engelund, S., Sorensen, J., Faber, M. and Bloch, A., 2002: Approximations in Inspection Plan-
ning, 8th ASCE Specialty Conference on Probabilistic Mechanics and Structural Reliability.
[33] Faber, M.H., Kroon, I.B. and Sorensen, J.D., 1996: Sensitivities in Structural Maintenance
Planning, Reliability Engineering and System Safety 51(1996), pp. 317 - 329.
[34] Farhangdoost and Provan , 1996: Stochastic System Approach to Fatigue Reliability - an Appli-
cation to Ti-6Al-4V, Engineering Fracture Mechanics, vol. 53, no 5, pp. 687 - 706.
[35] Fuchs and Stephens, 1980: Metal Fatigue in Engineering, John Wiley and Sons, NY.
[36] Gansted, L., Brincker, R. and Hansen, L. P., 1991: Fracture Mechanical Markov Chain Crack
Growth Model, Engineering Fracture Mechanics, vol. 38, no 6, pp. 475 - 489, 1991.
[37] Ghonen, H. and Dore S., 1987: Experimental Study of the Constant Probability Crack Growth
Curves Under Constant Amplitude Loading, Engineering Fracture Mechanics, vol. 27, no 1, pp. 1 -
25, 1987.
208
[38] Grigoriu, M., 2000: A Spectral Representation Based Model for Monte Carlo Simulation, Prob-
abilistic Engineering Mechanics, 15(2000), pp. 365 - 270.
[39] Hagen, O. and Tvedt, L., 1991: Vector Process Out-Crossing as a Parallel System Sensitivity
Measure, Journal of Engineering Mechanics, Vol. 117, No. 10, pp. 2201 - 2220.
[40] Harris, D.O., 1997: Probabilistic Fracture Mechanics, in Probabilistic Structural Mechanics
Handbook, C. R. Sundararajan (ed.), Chapman & Hall.
[41] Hasofer, A. M. and Lind, N. C.; 1974: Exact and Invariant Second Moment Code Format, Journal
of Engineering Mechanics vol. 100(1), pp. 111 - 121.
[42] Igusa, T. and Kiureghian, A.D., 1988: Response of Uncertain Systems to Stochastic Excitation,
Journal of Engineering Mechanics, vol. 114, No. 5, pp. 812 - 832.
[43] Ishikawa, H., Tsurui, A., Tanaka, H. and Ishikawa, H., 1993(a): Reliability Assessment of Struc-
tures Based Upon Probabilistic Fracture Mechanics, Probabilistic Engineering Mechanics 8 (1993),
pp. 43 - 56.
[44] Ishikawa, H., Tsurui, A., Utsumi, A., Tanaka, H. and Ishikawa, H., 1993(b): Effect of Stress
Ratio on Crack Propagation Life Distribution under Random Loading, Probabilistic Engineering
Mechanics 8 (1993), pp. 35 - 41.
[45] Itagaki, H., Ishizuka, T. and Yan, H. P., 1993: Experimental Estimation of the Probability
Distribution of Fatigue Crack Growth Lives, Probabilistic Engineering Mechanics, vol. 8 (1993),
pp. 25 - 34.
[46] Kanninen, M.F. and Popelar, C.H., 1985: Advanced Fracture Mechanics, Oxford University
Press, New York.
[47] Kuo, C.J., 1997: Reliability Assessment of Deteriorating Component due to Fatigue Crack
Growth under Random Loading, Ph. D. thesis, University of Arizona, Tucson, Arizona.
[48] Larrabee, R.D. and Cornell, C.A., 1979: Up-crossing Rate Solution for Load Combinations,
Journal of the Structural Division, ASCE, vol. 105, No. ST1, pp. 125 - 132.
[49] Larrabee, R.D. and Cornell, C.A., 1981: Combination of Various Load Processes, Journal of the
Structural Division, ASCE, vol. 107, No. ST1, 223 - 239.
[50] Lee, J. C. and Ang, A. H-S., 1994: Finite Element Fracture Reliability of Stochastic Structures,
Structural Safety and Reliability, Schueller, Shinozuka and Yao (eds.), Balkema, Rotherdam.
[51] Li, C.Q. and Melchers, R.E., 1993: Gaussian Up-crossing Rate Solution for Structural Service-
ability, Structural Safety 12 (1993), pp. 293 - 303.
[52] Lin, Y. K. and Yang, J.N., 1985: A Stochastic Theory of Fatigue Crack Propagation, AIAA
Journal, vol. 23, no 1, January 1985, pp. 117 - 124.
[53] Lutes, L. and Sarkani, S., 1997: Stochastic Analysis of Structural and Mechanical Vibrations,
Prentice Hall.
[54] Madsen, H.O., 1986: Fast Probability Integration for Time Variant Reliability, A.S. Veritas
Report.
[55] Madsen, H.O. and Tvedt, L., 1990: Methods for Time-Dependent Reliability and Sensitivity
Analysis, Journal of Engineering Mechanics, Vol. 116, No. 10, pp. 2118 - 2135.
[56] Madsen, H. O., Krenk, S. and Lind, N. C., 1986: Methods of Structural Safety, Prentice Hall
Inc., Englewood Cliffs, NJ.
[57] Madsen, H.O., Skjong, R., Tallin, A.G. and Kirkemo, F., 1987: Probabilistic Fatigue Crack
Growth Analysis of Offshore Structures with Reliability Updating Through Inspections, Proceedings
of Marine Structural Reliability Symposium, Arlington, VA.
[58] Marley, M. J. and Moan, T., 1994: Approximate Time Variant Analysis for Fatigue, Structural
Safety and Reliability, Schueller, Shinozuka and Yao (eds), 1994.
209
[59] McAllister, T.P. and Ellingwood, B.R., 2002: Evaluation of Crack Growth in Miter Gate Weld-
ments Using Stochastic Fracture Mechanics, Structural Safety 23(4), pp. 445 - 465.
[60] Melchers, R.E., 1992: Load-Space Formulation for Time-Dependent Structural Reliability, Jour-
nal of Engineering Mechanics, vol. 118, no. 5, pp. 853 - 870.
[61] Melchers, R.E., 1999: Structural Reliability Analysis and Prediction, second edition, John Wiley
and Sons, NY.
[62] Melchers, R.E., 2001: Assessment of Existing Structures - Approaches and Research Needs,
Journal of Structural Engineering, ASCE, Vol. 127, No. 4, April 2001.
[63] Melchers, R.E. and Ahammed, M., 2001: Estimation of Failure Probabilities for Intersections of
Non-linear Limit States, Structural Safety, Vol. 23(2001), 123 — 135.
[64] Moan, T., Hovde, G. and Jiao, G., 1994: Fatigue Reliability Analysis of Offshore Structures
Considering the Effect of Inspection and Repair, Proceedings of Structural Safety and Reliability,
1994, Balkema, Rotterdam.
[65] Moan, T., Vardal, O.T., Hellevig, N.C. and Skjoldli, K., 1997: In-Service Observations of Cracks
in Nord Sea Jackets. A Study of Initial Crack Depth and POD Values, Proc. of 16th OMAE
conference, Yokohama, Japan.
[66] Mori, Y. and Ellingwood, B., 1993: Time-dependent System Reliability Analysis by Adaptive
Importance Sampling, Structural Safety 12(1), pp. 59 - 73.
[67] Nagode, M. and Fajdiga, M., 1998: A General Multi-modal Probability Distribution Function
Suitable for the Rainflow Ranges of Stationary Random Processes, International Journal of Fatigue,
vol. 20, no. 3, pp. 211 - 223.
[68] Nigam, N. C. and Narayanan, S.; 1994: Applications of Random Vibrations, Springer-Verlag,
New York.
[69] Ortiz, K., 1984: Stochastic Modelling of Fatigue Crack Growth, Ph. D. thesis, Stanford University,
Stanford, California.
[70] Ortiz, K. and Kiremidjian, A.S., 1988: Stochastic Modelling of Fatigue Crack Growth, Engineer-
ing Fracture Mechanics, Vol. 29, No. 3, pp. 317 - 334.
[71] Owen, D., 1980: A Table of Normal Integrals, Comm. Stat. Simul. Comp. B9(4), pp. 389-419.
[72] Paris, P. and Erdogan, F., 1963: A Critical Analysis of Crack Propagation Laws, Journal of Basic
engineering, vol. 85, pp. 528 - 534.
[73] Pearce, H.T. and Wen, Y.K., 1984: Stochastic Combination of Load Effects, Journal of Structural
Engineering, vol. 110, No. 7, pp. 1613 - 1629.
[74] Press, W.H., Flannery, B.P., Teukolsky, S.A. and Vetterling, W.T., 1989: Numerical Recipes -
The Art of Scientific Computing, Cambridge University Press.
[75] Provan, J. (ed.), 1987: Probabilistic Fracture Mechanics and Reliability, Martinus Nijhoff Pub-
lishers, Dordrecht, The Netherlands, 1987.
[76] Rackwitz, R., 1985: Reliability of Systems Under Reneval Pulse Loading, J. of Engineering Me-
chanics, ASCE, 111 (9) 1175 - 1184.
[77] Rackwitz, R., 1993: On the Combination of Non-stationary Rectangular Wave Reneval Processes,
Structural Safety 13 (1993), pp. 21 - 28.
[78] Rackwitz, R. and Fiessler, B.; 1978: Structural Reliability Under Combined Load Sequences,
Computers and Structures vol. 9, pp. 489 - 494.
[79] Rahman, S. and Kim, J.S., 1998: Probabilistic Fracture Mechanics for Nonlinear Structures,
Structural Safety and Reliability, Schueller, Shinozuka and Yao (eds.), Balkema, Rotherdam.
210
[80] Rice, S.O., 1944: Mathematical Analysis of Random Noise, Bell System Technical Journal, Vols.
23 and 24. Re-published in Selected Papers on Noise and Stochastic Processes, edited by N. Wax
(1954), Dover Publications Inc, New York.
[81] Rocha, M. M. and Schueller, G. I., 1996: A Probabilistic Criterion for Evaluating the Goodness
of Fatigue Crack Growth Models, Engineering Fracture Mechanics, vol. 53, no 5, pp. 707 -731, 1996.
[82] Sarveswaran, V. and Roberts, M.B., 1999: Reliability Analysis of Deteriorating Structures - The
Experience and Needs of Practicing Engineers, Structural Safety 21 (1999), pp. 357 - 372.
[83] Schall, G., Faber, M.H. and Rackwitz, R., 1991: On the Ergocity Assumption for Sea States in the
Reliability Estimation of Offshore Structures, Journal of Offshore Mechanics and Artic Engineering,
ASME, Vol. 113, pp. 241 - 246.
[84] Shinozuka, M. and Jan, C.-M., 1972: Digital Simulation of Random Processes and its Applica-
tions, Journal of Sound and Vibration, vol. 25, No. 1, pp. 111 - 128.
[85] Sobczyk, K., 1986: Modelling of Random Fatigue Crack Growth, Engineering Fracture Mechanics,
vol. 24, no 4, pp. 609 - 623, 1986.
[86] Sobczyk, K. and Spencer, B. F., 1992: Random Fatigue: from Data to Theory, Academic Press,
1992.
[87] Sobczyk, K. and Trebiki, J., 2000: Stochastic Dynamics with Fatigue Induced Stiffness Degrada-
tion, Probabilistic Engineering Mechanics, vol. 15 (2000), pp. 91-99.
[88] Solnes, J., 1997: Stochastic Processes and Random Vibrations - Theory and Practice, John Wiley
and Sons Ltd., Chichester, England.
[89] Soong, T.T. and Grigoriu, M., 1993: Random Vibration of Mechanical and Structural Systems,
Prentice Hall, Englewood Cliffs, NJ.
[90] Sudret, B. and Kiureghian, A.D., 2002: Comparison of Finite Element Reliability Methods,
Probabilistic Engineering Mechanics 17 (2002), pp. 337 - 348.
[91] Sudret, B., Defaux, G., Lemaire, M. and Andrieu, C., 2002: Comparison of Methods for Comput-
ing the Probability of Failure in Time-Variant Reliability Using the Out-Crossing Approach, Fourth
International Conference on Computational Stochastic Mechanics, Kerkyra (Corfu), Greece, June
2002.
[92] Tsurui, A. and Ishikawa, H., 1986: Application of the Fokker-Planck Equation to a Stochastic
Fatigue Crack Growth Model, Structural Safety 4 (1986), pp. 15 - 29.
[93] Tsurui, A., Nienstedt, J., Schueller, G. I. and Tanaka, H., 1989: Time Variant Structural Relia-
bility Analysis using Diffusive Crack Growth Models, Engineering Fracture Mechanics, vol. 34, no
1, pp. 153 - 167.
[94] Turkstra, C.J., 1970: Theory of Structural Design Decisions, Study No. 2, Solid Mechanics
Division, University of Waterloo, Waterloo, Ontario.
[95] Turkstra, C.J. and Madsen, H.O., 1980: Load Combinations in Codified Structural Design, Jour-
nal of the Structural Division, ASCE, vol. 116, No. ST12, pp. 2527 - 2543.
[96] Vanmarcke, E.H., 1975: On the Distribution of the First Passage Time for Normal Stationary
Processes, Journal of Applied Mechanics, ASME, vol. 42, pp. 215 - 220.
[97] Vanmarcke, E.H., 1983: Random Fields, Analysis and Synthesis, MIT Press, Cambridge, Massa-
chusetts.
[98] Veers, P.J., 1987: Fatigue Crack Growth due to Random Loading, Ph. D. thesis, Department of
Mechanical Engineering, Stanford University, Stanford, California.
[99] Virkler, D. A., Hillberry, B. M. and Goel, P. K., 1979: The Statistical Nature of Fatigue Crack
Propagation, Journal of Engineering Materials and Technology, ASME, vol. 101 (1979), pp. 148 -
153.
211
[100] Wang, G. S.,1999: A Probabilistic Damage Accumulation Solution Based on Crack Closure
Model, International Journal of Fatigue, Vol. 21 (1999), pp. 531 - 547.
[101] Wang, L., Brust, W. and Atluri, N., 1997: The Elasto-Plastic Finite Element Alternating
Method (EPFEAM) and the Prediction of Fracture Under WFD Conditions in Aircraft Structures.
[102] Wen, Y.K., 1977a: Statistical Combination of Extreme Loads, Journal of the structural Division,
ASCE, 103 (ST5), 1079 - 1093.
[103] Wen, Y.K., 1977b: Probability of Extreme Load Combination, Journal of the structural Division,
ASCE, 104 (ST10), 1675 - 1676.
[104] Wen, Y.K., 1981: A Clustering Model for Correlated Load Processes, Journal of the structural
Division, ASCE, 107 (ST5), 965 - 983.
[105] Wen, Y.K., 1990: Structural Load Modeling and Combination for Performance and Reliability
Evaluation, Elsevier Science Publishers, Amsterdam.
[106] Wen, Y.K. and Chen, H.C., 1987: On Fast Integration for Time-Variant Structural Reliability,
Probabilistic Engineering Mechanics, vol. 2, no 3, pp 156 - 162.
[107] Wen, Y.K. and Chen, H.C., 1989: System Reliability Under Time-Varying Loads: I, Journal of
Engineering Mechanics, vol. 115, no 4, pp 808 - 823.
[108] Wheeler, O. E., 1972: Spectrum Loading and Crack Growth, Journal of basic engineering, Vol.
94, pp. 181 - 186.
[109] Wirsching, P. H., 1998: Fatigue Reliability, Progress in Structural Engineering and Materials
1998, vol. 1(2), pp. 200 - 206.
[110] Winterstein and Cornell, 1984: Load Combinations and Clustering effects, J. Structural Division,
ASCE, 110 (11) 2690 - 2708.
[111] Wirsching, P. H. and Shehata, A. M., 1977: Fatigue Under Wideband Random Stresses Using
the Rainflow Method, Journal of Engineering materials and Technology, ASME, vol. 99 (1977), pp.
205 - 211.
[112] Yang, J. N., Hsi, W. H., Manning, S. D. and Rudd, J.L., 1987: Stochastic Crack Growth
Models for Application to Aircraft Structures, in Provan (ed.), Probabilistic Fracture Mechanics
and Reliability, Martinus Nijhoff Publishers, Dordrecht, The Netherlands, 1987.
[113] Yang, J. N. and Manning, S. D., 1996: A Simple Second Order Approximation for Stochastic
Crack Growth Analysis, Engineering Fracture Mechanics, vol. 53, no 5, pp. 677 - 686, 1996.
[114] Zheng, R. and Ellingwood, B. R., 1998: Stochastic Fatigue Crack Growth in Steel Structures
Subject to Random Loading, Structural Safety 20 (1998), pp. 303 - 323.
[115] Zhu, W. Q., Lin, Y. K. and Lei, Y., 1992: On Fatigue Crack Growth under Random Loading,
Engineering Fracture Mechanics, vol. 43, no 1, pp. 1 - 12, 1992.
[116] Zwillingner, D. (editor), 1996: Standard Mathematical Tables and Formulae, CRC Press, 30th
edition.
Apêndice A:
Ry £ ¤
Valores tabelados da função Φ(y) = √1 exp −z 2 /2 dz.
−∞ 2π
212