Você está na página 1de 130

Fases de uma obra de Engenharia

a. Início do Projeto a partir do reconhecimento de


uma necessidade e da subseqüente decisão de
executá-la;
b. Fase de projeto, a qual exige um certo grau de
conhecimento prévio;
c. Construção;
d. Operação ou uso
Fases de uma obra de Engenharia

a. Fim da vida útil devido a uma falha total do tipo


frágil;
b. Falha parcial devida a assentamento do apoio;
c. Inspeção;
d. Manutenção: restituição da obra ao estado
anterior à falha
2 – Conceitos básicos de probabilidade

2.1 – Eventos e probabilidade


2.2 – Elementos da Teoria dos Conjuntos
2.3 – Matemática da Probabilidade
2.4 – Observações conclusivas
Eventos e probabilidade
Características dos problemas de probabilidade

• Probabilidade pode ser considerada como uma


medida numérica da possibilidade de ocorrência
de um evento relativo a um conjunto de eventos
alternativos.
• Identificar o conjunto de todas as possibilidades
(espaço de probabilidades) e o evento de
interesse.

Evento _ especifico
Pr obabilidade =
Espaco _ de _ possibilidades
Características observadas:

• Cada problema é definido com relação a um


determinado espaço de possibilidades
(contendo mais de uma probabilidade), e os
eventos são compostos de uma ou mais
ocorrências possíveis, no espaço de
possibilidades.
• A probabilidade de um evento depende das
probabilidades individuais das ocorrências,
dentro do espaço de possibilidades.
Elementos da Teoria dos Conjuntos:
Combinação de eventos
2.2.3 - Regras de operação:
Regra de Morgan
2 – Conceitos básicos de probabilidade

2.1 – Eventos e Probabilidade


2.2 – Elementos da Teoria dos Conjuntos
2.3 – Matemática da Probabilidade
2.4 – Observações Conclusivas
2.3 – Matemática da probabilidade
2.3.1 – Axiomas Básicos
– Regra da adição
2.3.2 – Probabilidade Condicional – Regra
da Multiplicação
Probabilidade Condicional
Regra da Multiplicação
2.3.3 – Teorema da Probabilidade Total
2.3.4 – Teorema de Bayes
2.4 – Observações Conclusivas
 Um problema probabilístico envolve a determinação da probabilidade de um
evento dentro de um conjunto exaustivo de possibilidades (espaço de
possibilidades).

 Principais etapas na formulação e solução de um problema probabilístico:

(1) - A definição do espaço de possibilidades.


- A identificação do evento dentro deste espaço.

(2) O cálculo da probabilidade do evento.

 Bases para cálculo de probabilidades:

• Teoria dos conjuntos

• Teoria matemática da possibilidade


Teoria dos Conjuntos:
Teoria da Probabilidade:
3 – Modelos analíticos para
fenômenos aleatórios
3.1 – Variáveis aleatórias
3.2 - Principais distribuições de probabilidade
3.3 - Variáveis aleatórias múltiplas
3.1 – Variáveis aleatórias
• Variável aleatória é uma lei que relaciona eventos de um espaço
amostral com a reta dos números reais.
3.1.1 – Distribuição de probabilidade de uma
variável aleatória

• Distribuição de probabilidade ou lei da


probabilidade é a lei ou regra que
descreve as medidas de probabilidade
associadas com todos os valores
possíveis de uma variável aleatória.
Função de Distribuição Acumulada
• Se X é uma variável aleatória, sua
distribuição de probabilidade pode sempre
ser descrita por sua Função de
Distribuição Acumulada (FDA), a qual é
dada por:
Variável aleatória discreta
• X é uma variável aleatória discreta se
apenas alguns valores de x possuem
probabilidade positiva.

• Exemplo: Número de guindastes em


operação em um porto após 6 meses.
Variável aleatória discreta
• Função de Massa de Probabilidade
(FMP), que é simplesmente uma função
expressando P (X = x), para todo x.
Variável aleatória discreta:
Variável aleatória contínua:
• Se X é uma variável aleatória contínua,
probabilidades são associadas com
intervalos na reta real (uma vez que
eventos são definidos como intervalos
sobre a reta real).
• Para um valor específico de X, tal como
X =x, somente uma Densidade de
Probabilidade é definida.
Variável aleatória contínua:
• Função Densidade de Probabilidade
(FDP),é tal que se fX (x) é a FDP de X, a
probabilidade de X situar-se intervalo (a,b]
é:
Variável aleatória contínua:
• A função de distribuição acumulada (FDA)
é dada por:

• Se FX (x) possui uma primeira derivada,


então:
Variável aleatória contínua:
• É importante frizar que fX(x) não é uma
probabilidade.
• Contudo:

• é a probabilidade de que valores de X


estarão no intervalo (x, x+dx].
Variável aleatória contínua:
Requisitos para uma FDPA:

Conseqüências:

Variável discreta: Variável contínua:


Probabilidade do evento: (a<x≤b)
3.1.2 – Características de uma
variável aleatória
• O valor central: média ou valor esperado
• Uma medida de dispersão: variância
• Uma medida de assimetria
Média ou Valor Esperado
• Variável aleatória discreta:
Média ou Valor esperado
• Variável aleatória contínua:
Moda e Mediana
• Moda: é o valor mais provável de uma
variável aleatória.

• Mediana: é o valor da variável


aleatória para o qual os valores inferiores
ou superiores são igualmente prováveis.
Variância
• Variável aleatória discreta:
Variância
• Variável aleatória contínua:
Desvio Padrão e Coef. de Variação
• Desvio padrão:

• Coeficiente de variação:
Máquinas na obra
• Número de máquinas operando após seis
meses:
Exemplo: 3.3 – Guindastes no
porto
• Valor esperado do número de máquinas
operando após 6 meses:

• Variância:
• Desvio padrão:

• Coeficiente de variação:
Exemplo 3.4: Variável contínua
• Variável aleatória contínua X:
Exemplo 3.4:
• Cálculo da média ou valor esperado:

• Cálculo da variância:
Exemplo 3.4:
• Cálculo da moda:
• Cálculo da mediana:
Medidas de assimetria:
• Terceiro momento central:
Medidas de assimetria:
Medidas de assimetria:
Medidas de assimetria:
• Coeficiente de assimetria:
3.2 – Principais distribuições de
probabilidade
• Distribuição Normal
• Distribuição Normal Logarítmica
• Distribuição Binomial (Seq. de Bernoulli)
• Distribuição Geométrica
• Distribuição Binomial Negativa
• Distribuição de Poisson
• Distribuição Exponencial
• Distribuição Gama
• Distribuição Hipergeométrica
• Distribuição Beta
3.2.1 – Distribuição normal
• Também chamada de Curva de Gauss
• É a mais utilizada das distribuições.
• Sua FDP é dada por: N(µ,σ)
Distribuição normal
• Parâmetros: µ = média e σ = desvio padrão
Distribuição normal padrão:
Distribuição
normal 1xσ

padrão:

2xσ

3xσ
Cálculo de probabilidades:
Cálculo de probabilidades:
• Usando a distribuição normal padrão:
Exemplo: Precipitação pluviométrica
em uma bacia de captação
3.2.2 – Distribuição Log-normal
• Uma variável aleatória X possui uma
distribuição log-normal se o logaritmo
neperiano ln(X) possui distribuição normal.

• A distribuição log-normal é útil de ser


empregada quando todos os valores da
variável aleatória X forem positivos (X>0).
Distribuição log-normal
Distribuição log-normal
• Parâmetros:
• Média:

• Mediana:
• Variância:
Exemplo 3.6: Precipitação em uma bacia de
captação: modelo log-normal
3.2.3 – Distribuição Binomial
• Seqüência de Bernoulli:
• 1. Cada tentativa possui apenas dois
resultados possíveis: a ocorrência (p) ou a
não-ocorrência (q) do evento.
• 2. A probabilidade de ocorrência do
evento em cada tentativa é constante.
• 3. As tentativas são estatisticamente
independentes.
Distribuição Binomial
• A probabilidade de ocorrerem x
ocorrências, em n tentativas, com uma
probabilidade p em cada tentativa é:

• Onde:

(Combinação de n elementos x a x)
Distribuição Binomial
• Na seqüência de Bernoulli as tentativas
devem ser discretas.
• Porém, problemas de tempo ou espaço
contínuos podem ser resolvidos dividindo-
se o tempo (ou o espaço) em intervalos
finitos e admitindo-se apenas a ocorrência
ou a não-ocorrência do evento em cada
intervalo.
Exemplo 3.7 – Cheia máxima anual
3.2.3 – Distribuição Geométrica
• Em uma seqüência de Bernoulli, o número
de tentativas até que um evento
especificado ocorra pela primeira vez é
governado pela Distribuição Geométrica.
• O evento é realizado na t-ésima tentativa:
Distribuição Geométrica
• O período de retorno de um evento ou tempo de
recorrência médio:

• Para q<1, a série infinita conduz a:

• O período de retorno é o inverso da


probabilidade de ocorrência do evento.
Exemplo 3.8 – Plataforma offshore
• Plataforma offshore • A probabilidade de
construída 8m acima esta altura ser
do nível do mar. superada pelas ondas
do mar em um ano é
de 10%.
• Qual a probabilidade
de as ondas cobrirem
a plataforma em seu
período de retorno?
Plataforma offshore
Distribuição geométrica:
• Probabilidade de ocorrência de um evento
dentro de seu período de retorno:

( )
P nenhuma _ ocorrência _ em _ T = (1 − p )T

( )
P nenhuma _ ocorrência _ em _ T = e −T p = e −1 = 0,3679

( )
P ocorrência _ em _ T = 1 − 0,3679 = 0,6321

• Para valores grandes de T e pequenos de p


3.2.5 – Distribuição Binomial
Negativa
• O número de tentativas de Bernoulli
necessárias até a k-ésima ocorrência de
um evento é governado pela Distribuição
Binomial Negativa.
 t −1 
P(Tk = t ) =   p k q t − k para t = k , k + 1,...
 
 k −1

P(Tk = t ) = 0 para t < k


Exemplo 3.9 – Velocidade máxima
do vento
• Uma torre de transmissão foi projetada
para uma velocidade máxima de vento
que ocorre 1 vez a cada 50 anos.

• Qual a probabilidade desta velocidade ser


excedida duas vezes nos primeiros 5 anos
após a execução da estrutura?
Velocidade máxima do vento

• Probabilidade de que serão gastas 5


tentativas para obter-se 2 ocorrências.
3.2.6 – Distribuição de Poisson
• A distribuição de Poisson descreve a FMP
do número de eventos que ocorrem em
determinado intervalo (contínuo) de tempo
ou de espaço.

• É o resultado de um processo de
contagem X(t) no tempo (ou espaço)
contínuo chamado Processo de Poisson.
Distribuição de Poisson
• Processo de Poisson
• 1. Em um instante de tempo qualquer, pode
haver no máximo uma ocorrência de um
evento.
• 2. As ocorrências de um evento em intervalos
de tempo não sobrepostos são
estatisticamente independentes.
• 3. A probabilidade de uma ocorrência em
• (t, t+∆t) é proporcional a ∆t, isto é:
Distribuição de Poisson
• Função densidade de probabilidade:

• Onde: ν é a taxa de ocorrência média

• Valor esperado:

• Variância:
3.2.7 – Distribuição Exponencial
• Processo de Poisson: o tempo até a
ocorrência do primeiro evento (T1) segue
uma distribuição exponencial.
ν t0
P(T1 > t ) = P( X t = 0) = ⋅ e −νt = e −νt
0!
• Como as ocorrências em intervalos não
sobrepostos são independentes o valor de
T1 é igual ao Tempo de Recorrência
Distribuição Exponencial
• Função densidade de probabilidade
acumulada:

• Função densidade de probabilidade:

• Período de retorno:
Distribuição Exponencial
• Distribuição Exponencial: forma geral

• Confiabilidade: vida média ou tempo médio até


a próxima falha:
3.2.8 – Distribuição Gama
• A distribuição de probabilidade Gama
governa o tempo necessário até a k-
ésima ocorrência de um evento que segue
Processo de Poisson.

• Tk ≤ t : k ou mais eventos ocorrem no


tempo t.
Distribuição Gama
• Função de distribuição de probabilidade
acumulada para Tk:

∞ k −1
(ν t ) x −ν t
FT k (t ) =  P ( X t = x) = 1 −  e
x=k x =0
x!

P(Tk > t )
Distribuição Gama
• Função densidade de probabilidade da
distribuição Gama:

dFT k (t ) ν (ν t ) k −1 −ν t
fT k (t ) = = e , t≥0
dt (k − 1)!

• A distribuição Gama com k inteiro é


conhecida como Distribuição de Erlang
Distribuição Gama
• O tempo médio para a ocorrência do k-
ésimo evento é:
k
E (Tk ) =
ν
• A variância de Tk é dada por:

k
Var (Tk ) =
ν2
Distribuição Gama
• O nome distribuição Gama vem de que:
(k − 1)!= Γ(k )
• Onde Γ(k ) é a função Gama de k.


( ) k −1 − x
Γ k =  x e dx, k >0
0
3.2.9 – Distribuição Hipergeométrica

• Em uma população com N elementos


• m elementos são defeituosos
• Desta população é retirada uma amostra
de n elementos
• A probabilidade de que nesta amostra de
n elementos existam x elementos
defeituosos é governada pela Distribuição
Hipergeométrica.
Distribuição Hipergeométrica
Combinações Combinações
possíveis de m possíveis de
elementos (N-m)
elementos
defeituosos  m  N − m 
   bons
  
P( X = x) =  x  n − x 
, x = 1, 2,..., m
N
 
 
n
Número de
amostras possíveis
de tamanho n
3.2.10 – Distribuição Beta
• A distribuição Beta é apropriada para uma
variável aleatória cujos valores possíveis
estão confinados entre os limites a e b.

1 ( x − a )q −1 ( x − b )r −1
f X ( x) = , a≤ x≤b
B ( q, r ) (b − a )q + r −1

= 0, para outros valores de x


Distribuição Beta
• a = limite inferior da variável x
• b = limite superior da variável x
• q e r são os parâmetros da distribuição
• B(q,r) = função Beta
1
q −1 r −1
B ( q, r ) =  x (1 − x) dx
0
Distribuição Beta
• Exemplo: 2 ≤ x ≤ 12, q =20, r=6
Distribuição Beta padrão
1 q −1 r −1
f X ( x) = x (1 − x) ,0 ≤ x ≤1
B ( q, r )
Distribuição Beta Padrão
• Cálculo da probabilidade acumulada na
distribuição Beta padrão
• Função Beta Incompleta:

x
q −1 r −1
Bx ( q, r ) =  y (1 − y ) dy
0
,0 ≤ x ≤1
Distribuição Beta
• Parâmetros:

q
• Média: µX = a + (b − a)
q+r

• Variância: σ X2 =
qr
(b − a )2
(q + r ) 2 (q + r + 1)
Distribuição Beta
• Cálculo de probabilidade:

P( x1 ≤ x ≤ x2 ) =
1
[Bu (q, r ) − Bv (q, r )]
B ( q, r )

u=
( x2 − a )
e v=
( x1 − a )
(b − a ) (b − a )
• Função Beta Incompleta: Bu (q, r ) e Bv (q, r )