Você está na página 1de 45

Variáveis aleatórias discretas

[J Porta nto, a probabilidad e de ocorrência do evento de inte resse dentro


do período de retorno é:
P [{ocorrência em /lT inte ryalos}] 1 - 0.36
0.632
(para /lT grande O ll ItT > 10 interya lo-)

Discussões (assumindo independência entre os ventos anuais):


• Um vento com período de retomo de 50 anos (p=0,02, por ano) tem llIIla
probabilidade de cerca de 63,2% de ocolTer denu'o de 50 allos !
Não é porque é 11111 venlO de 50 anos, que nunca vai acontecer!
• Este mesmo vento tem luua probabilidade de nào ocolTer de cerca de
13 ,26% dentro de tuU inte.valo de 100 a11os'
Não é porque você nunca vi1l, que Ilunca vai acontecer!
• Como a hipótese de dependência afetaria estas discussões?

Variáveis aleatórias discretas


o Exemplo no Moodle (Exemplo 3. 12 - Ang e Tang, 19 75. p. 111):
[J Uma estru tura o1fshore s ujeita a ondas de alturas d iversas.
Variáveis aleatórias discretas
Exemplo: los é João lulian joga na loteria todo mês. (Continuação)
• A quantidade de meses até José ganhar novamente segue uma
distribuição Geométrica: X- G(O,Ol);
Como J1r= 1/p= 100, José ganha, em média, uma vez a cada 100 meses.
Portanto, 100 meses é o período médio de retomo do evento
"ganhar";
A probabilidade de não ganhar em JlT intervalos é:
• P[{não ocorrência em PT intervalos}]=(1- pl"T",O,366;
• Devido à independência entre os eve ntos, não ter ganho nos
últimos n meses ~o aumenta a probabilidade de ganhar nos
próximos meses!
• Em que ciro.lllstâncias poderia ocorrer dependência entre
eventos?

Variáveis aleatórias discretas


o Processo de Poisson e distribuição de Poisson PN(J. )
o Quando uma sequência de Bernoulli ocorre ao longo de um
contínuo (espaço ou tempo), com intervalos tendendo a zero, número
de tentativas de Bernoulli tendendo a infinito e probabilidade de
ocorrência do evento de interesse em cada tentativa tend endo a zero,
origina-se um processo denominado processo de Poisson.
O O evento de interesse pode ocorrer a qualquer instante no tempo ou em
qualquer ponto no espaço, e mais de uma ocorrência pode acontecer
em qualquer intervalo;
a A variável aleatória que conta o número de ocorrências do evento de
interesse em UIll determinado intervalo de tempo segue ullla
distribuição de Poisson.

Tellfariva de Bernoulli - Processo de Poissol1


Distrib"içi)o Billomial - Distribuição de Poisson
Variáveis aleatórias discretas
o o processo de Poisson é baseado nas seguintes premissas:
I. Um evento de interesse pode ocorrer aleatoriamente a qualquer
instante no tempo e/ou em qualquer ponto no espaço;
2. A ocorrência de um evento em determinado intervalo é
indepe nde nte da ocorrência em qualquer outro intervalo não
coincidente;
3. A probabilidade de ocorrência do evento em um pequeno
intervalo Llt pode ser calculada por uLlt (onde u é a taxa média de
oco rrências) e a probabilidade de oco rrência de dois ou mais
eventos no pequeno intervalo LIt é desprezável.
O Tais premissas são consequência natural da convergência da sequência
de Bernou lli em um processo de Poisson.

Variáveis aleatórias discretas


o Com n-+oo e p ..... O em uma sequência de Bernoulli, o número mé dio de
ocorrências em um intervalo de tempo de tamanho t é dado por À=np
(número de realizações multiplicado pela probabilidade de ocorrência),
uma constante maior do que zero que caracteriza o processo de
Poisson;
o Dividindo-se esta constante pelo tamanho do intervalo, obtém-se a taxa
média de ocorrências (no espaço ou no tempo), u, do evento de
interesse: À
v = - ou À = v t = np
t
Q No limite, com "-'00, tem-se que:
- • . (õ'W
P[{_\ = x}] = P[{x ocorrenCI8S em t} ] = ---;;! exp[-vt]

o Esta é a função de densidade de probabilidades da variável aleatória X


que descreve o número de ocorrências do evento de interesse no
intervalo de tamanho t.
Variáveis aleatórias discretas
o A função de distribuição cumulativa de probabilidades é dada por:
tJk
? [{ X :o; x} ) = L% (
v ! e.xp[- vt )
k
k= O
O O valor esperado e a variância de~ são: I' = vi
(J'1 = vt
O Na prática, a relação IIP=Ut=À, que dá origem à distribuição de Poisson é
satisfeita, por exemplo, com 11=50, para p<O.l, ou com 11=100, para
p<0.05 .

Variáveis aleatórias discretas


O A distribuição de Poisson herda a seguinte propriedade da distribuição
Binomial:

Supondo que a ocorrência de uma trinca ao longo de um filete de solda


seja adequadamente descrita por um processo de Poisson. Se um
tubular passar a necessitar de dois filetes de solda ao invés de um, sua
taxa de defeitos é duplicada.

O A variável aleatória que descreve o tempo entre ocorrências


sucessivas de um processo de Poisso n segue u a distr ibu ição
expo nencial, ap resentada mais à frente.
Distribuição Geométrica -to Distribuiçào Etpollellcial
Variáveis aleatórias discretas
!J Distribuições de Poisson para alguns valores de À (número médio de
ocorrências no intervalo) :
1.0 1.0

0.8 0 .8

0.6 0 .6

0.4 0.4

0.2

O
111111111111
o I 2 3 4 5
,6 7 8 9 10 11 12 o 1 2 3 4 5 6
, 7 8 9 10 11 12

t:Jm..!f.;. Momgomel"); D.e. ; RIIIIgel; O.C. Applled SfaflSflCS Gl1d Probabllttyfor ElIgllleers, 6"d
Edmoll; Wile) ; 20/4.
Variáveis aleatórias contínuas
Variáveis aleatórias contínuas
o Generalidades
o Uma variávd itleitlória COIII domínio forlllado por 11111 número infinito e
illcontável de pontos é do tipo contín uo;
O Seja [x(x) fi função cle densidade de probabilidfules de 1111111 varhível
aleatória continua X, sua função de probabilidades acumuladas é:

Fx(z ) - L~ ' :s.u )du


o O valor esperado e a variância são dados VOr:

}J = 1: 00

xfx (x )dx

(1 2 = 12,""" (:t - INfx(z)dx

Variáveis aleatórias contínuas


a lJistribuição causal
O Não é uma distribuição estat(sti ca propriamente dita. mas serve para
repres enta i' um valor dete rminísti co na forma de uma variável
a leatória ;
a As fu nções de probabilidade podem ser escritas como:
Jx ( x ) = ó{xo): -00 :$ x:$ oc
Fx (x ) _ H (xo): -00 : : : x ::::
o Onde S(xo) é 11 função della de Dlrac e H(xo} é ti funçào de Heavlsld e.
a Os momentos da distribuiçÃO causal são Jj=x{J e 0=0.

"
Variáveis aleatórias contínuas
o Distrilmição uniforme U(a,b)
o Descreve eventos que são
equiprováveis (não necessariam ente
igualmente distribuídos!) entre dois limites a e b;
O Funções de probabilidade: 1
!x (x) - __ o a ~ x ~ b
b- a"
x- a
Fx (x) b -a :
, . ...
• - 1..2.'
u
1./1 •• -
Unirorm

r···_····_· ······_·····_--·---1
i
l;;> , , , •
"
Fante das ,I'lJn-ac&s de dJSmb/llç~s comimlaS: http://U/ruJc. .SIles.oft.llbc.cnI/ilesl20J UIJIComullolu-
Random-J'ánobles.pdf(ji-om the GNU &1t!J/t if~ Libra/)' Rejerence .\1mlllol, M. GCllassJ et 01.)
Acesso em: 1310612017

"
Variáveis aleatórias contínuas
o Dis tribuição uniforme U(a,b)
o Momentos:
a+ b
I" -
2

('< -- 2 ), tlx= (x - - 2 )]r =


• (o + b ) - (o+ b) (b - a )2
q2 -
V(Xl=f (b -o)' 12
b -o 3(b - o ) . 12

o Parâmetros: .... o.r... ... u
• - 1.'1.... 1,11 ' _0 .

Unirorm
a - 1,- /3q
b = 1,+/3q
r-'--"'--- -'-------------"'--1
, I
! !
,~L--L--~~c-------~
, .
Variáveis aleatórias contínuas
o Distribuição no rmal N(JI, (1)
o Uma das distribuições mais simples, pois seus únicos parâmetros são os
dois primeiros momentos: média e desvio-padrão;
O Função de densidade de probabilidades:

~
Jx (x ) = q"j2;; exl' [- ~_ ( X_1")2] _cc ~ x :<:: 00
(1

~
O Função de distribuição cumulativa de probabilidades:

F.dx ) = 1% ~
2rr
exl' [-~ (, _1-')2
- 00 (J _
] d: (7
:<:: x :<::

o Esta integral não possui solução analítica. Em geral, ela é resolvida


numericamente e os resultados são utilizados para construir tabelas de
referência ou aproximações palinomiais de F,,(x).
O Tais resultados são apresentados em termos de uma distribuição com
média nu la e desvio-padrão unitário, denominada di stri buição
norma l padrão.
Variáveis aleatórias contínuas
o Qualquer variável aleatória com distribuição normal X-N()1 , a) pode ser
transformada em uma variável normal padrão Y por meio de:
y = X - "
CT
o Para a variável normal padrão Y, as fun~s de probabilidade são:

h (Y) - ó(y ) = ---=


1
.j2;
exp [y2]
- -,
-
~ y ~

F,,(y ) - l~ ó( z)d, ~ y ~ 00

o Para a variável aleatória X-N().I , a), a distribuição cumulativa de


probabilidades Fx(x) é determinada a partir da fun ção <I>(y) :
X - ,,)
Fx (x) = iI> ( CT

Variáveis aleatórias contínuas


0.5 , - - - - - - - - - - - - - - - - - - - - - - - - - ,
(1 = 1
(1 = 2 ____ o

0.4
Normal
0.3

0.2

O. 1

-5 -1 -3 -2 -1 o 1 2 3 1
Variáveis aleatórias contínuas
o Probabilidades associadas a diferentes intervalos de confiança,
distribuição normal:
0.5 , - - - - - - - - - - - - - - - - - - - - - - - - ,

0.4

0.3

0.2

0. 1

o. ~ _ _....--.::::.
2 68.3%

-4 -3 -2 - I o 1

Variáveis aleatórias contínuas


o Distribuição Jognormal LN(À,()
o Se a variá];}1 aleatória Y tem distribuição normal, então a variável
X=exp [y] tem distribuição lognormal (X-LN(À,m.
x ,-N( 5,0.25' V, - up(X,)
0012

......
."

...
.. ,., ...
0<'"

• .5 5 55

o , ,.,
>.'/ )'/
O Funções de probabilidade:
I x (X) _
~x ,j'E
1 exp [_ ~ ( In(:I:) -
- ~
")2]
F.y(x) - "'I, [ln(X~ - "]
Variáveis aleatórias contínuas

( = 0. " = 1 -
( = L., = I -----

0.5
Lognormal

, -- -- ---------
--- -------
,
,,
,
, -- ---
,,
O~- --------~--------~--------~
o 1 2 3

Variáveis aleatórias contínuas


Q Distribuição exponencial EXP(u)
r:J Quando um evento ocorre ao longo do te mp~segllnd o um processo de
Poisson, o tempo (aleatório) até a primeira ld'corrência T, segue uma
distribuição expo nenci al;
:J A distribuição exponencial é a análoga continua da distribuição
geométrica;
T
Variáveis aleatórias contínuas
o Distribuição exponencial EXP(u)
o O evento (TI>t) representa nenhuma ocorrência no intervalo de
tamanho t.
O A partir da distribuicão de Poisson . tem-se:
P[{X = x} j ~ P[{x ocorrências em t }] = (vtr e.xp[-vt j
~ x.
P[{T, > t} j = P[{X = O} j = e",,(-vt )
o Assim, a função de distribuição cumulativa de probabilidades de TI é:
FT. (t ) = P[{T, :s t} j = 1 - exp[- vtj . t ?: O
o Derivando em relação a t, obtém-se a função de densidades:
dFr (t )
!r (t ) = d~ = v exp[-ut j. t ?: O

Variáveis aleatórias contínuas


o A distribuição exponencial possui um único parâmetro, a taxa média
(no tempo ali espaço) de ocorrência de eventos, u;
o Se a taxa não variar ao longo do continuo, os momentos estatísticos são:
1
QUGIlfO meNor a laxa, maior
a média e o desl'io-padrllo!
v
o Devido à falta de memória do processo de Poisson, o tempo até a
primeira ocorrência é igual ;tO ternpo entre ocorrências Oll período de
retorno, análogo contínuo ao tempo de retorno discreto;
o Portanto, J.l Tl é o período médio de retorno para eventos que ocorrem
ao longo do continuo.
O Exemplo: Se um evento apresenta taxa média de 0,1 ocorrências/ano,
em média o even to ocorrerá a cada 10 anos, este é seu período médio
de retorno.

Variáveis aleatórias contínuas


o Exemplo (Exemplo 3.18 - Ang e Tang, 1975. p. 121):
o Terremotos em São Francisco. Califórnia.
Variáveis aleatórias contínuas
o Distribuição exponencial deslocada EXP(V,E)
a A variável aleatória que descreve o tempo até a primeira ocorrência ou
entre ocorrências a partir do ins tante E segue li ma distribuição
exponencial deslocada, X- EXP(V,E);
O Funções de probabilidade:

f.dx ) - vexp[-v (X- é)J. é~X~


l'\" (x ) - 1 - e"l'[-v(x - é)J. € ~ X ~ 00

Q Relações entre parâmetros e momentos:


t:;.
1
I-' - -V + € 1
v - 17
1
v
€ - 1-' - 17

Variáveis aleatórias contínuas


O Dis tribuição Rayleigh deslocad a RAY(/I,E)
O Funções de probabilidade:

f.dx ) _ (X~ ê) exp[_ }( X - € ) 2]: é~X~


'7 - '7

F.y(x) = 1 - exP [-HX ~ €)l €~x<


O Relações entre momentos e parâmetros:

17
I' - '7 1% +
2 é I)
.J2 rr
2

17 - 1/
R 2- 2 é


- 1-'- 1)
~2"
Variáveis aleatórias contínuas

0.7 , -- - - - - - - - - - - - - - - ----,
(7 = 1 - -
O.ô u = 2 -- -- ~

0.5

OA
Rayleigh
0.3 ----

0.2
, ,, -------------
0.1 , ,, ...............
,/ --
U+'~--~------r_----~~--~----~
o I 2 3 ·1 5

Variáveis aleatórias contínuas


o Dis tribuiçã o logística LOG(jI. a)
C1 Funções d e probabilidade:

fx (x)

F.dx)

o Os parâmetros são os próprios momentos p e u.


Variáveis aleatórias contínuas
0.3 , - - - - - - - - - - - - - - - - - - - - - ,
,, = 1 - -
a = 2 -----

0.2 Logistic

0.1
;",-'"
.' -- -- ---- --- "
. "

. -... --
"
"
" ,,

.' . ' -- "


"

O
-5 -4 -3 -2 -1 O 1 2 3 ·1 5

Variáveis aleatórias do tipo misto


Variáveis aleatórias do tipo misto r
o Uma va riável aleatória do tipo mis to (O ll clipada) Y é obti da a partir
de um::'! vari .1 vel a!p"'tóri tt conr1nua Z, ps trita me nre pos itiva,
t
~
definindo-se:
P=p[{r =O}]
q=p [{ l'> O}]

.
frt\')
.. F CI')

o Fzel )
I: 0 . 5
q
" ~ 0. 5

fl( .1')
p
,. , , ,. , , ,
• •
POF e COF de \'8 rU\ n~1 ft]eHlór ia d ipada 00111 P = 0.2 e q = 0.8.
"
Variáveis aleatórias do tipo misto
o As fun ções de distribui ção de probabilidades de Y são obtidas a
partir das distribuições de Z:

h (y) - pH (O) + qFz (y)


h (y ) - pJ(O) + q fz (y )

1,()') F,(y)
1-
1-
P

ii Fz Cl')
~ 0.5
o.s
q 1z ( y)
p
o. o.
o 1 2 ) o 1 2 )
x x

POF e COF de nuiá\"el aleatória clipada com p = 0.2 e q = O. .


Distribuição conjunta de probabilidades

CaractetÍsticas e prop,iedades de conjuntos de variáveis aJeató,ias.

Função conjunta de distribuição cumulativa de


probabilidades
o Sejam duas variáveis aleatórias X e~.
Os conjuntos {X~} e {Ysy}
formam eventos cujas probabilidades são dadas por:
=FAx)
P[{ X s x} ]
P[{ Y sy}] =Fy{y)
O O produto (intersecção) destes conjuntos forma um evento:
{X$x} {Y$y} = {X$X, Y$y}
cuja probabilidade. que é função de x e y. é chamada de função
conjunta de distribuição cumulativa d e probabilidades:

Neste contexto. as distribuições FAx) e Fy{y) são chamadas de


distribuições margina is de probabilidades.

Função conjunta de distribuição cumulativa de


probabilidades
o A função F,no(xJ') representa características do comportamento
conjunto das variáveis X e Y. que não estão presentes nas funções Fx(x)
e Fy{y);
O Portanto. a distribuição F,no(xJ'). em geral. não po~ ser determinada
somente a partir das di stribuições marginais correspondentes.

"
o~,~ ),' 3 ,
• y
Função conjunta de distribuição cumulativa de
probabilidades
o A probabilidade descrita por Fxy{xJI) muda. por exemplo. se as variáveis X
e Y forem dependentes ou independentes. mas é possível fazer algumas
observações gerais sobre FxrCxJI):
O Como {Y~oo} é um evento certo. então :
{X $ x .Y $oo } = {X $x}
{X $ 00 . l ' $ y} = {Y $ y}

o Portanto:
FX1 ·(X. ) - Fx (x) ~
Fxd . y) - Fdy )

o
y

x 3 35

Função conjunta de distribuição cumulativa de


probabilidades
o Além disso. como {X~oo.Y~oo} é um evento certo e {X~ - oo. Y~-oo} é
um evento nulo. então: ~

Fxr<. 00, (0) = 1


Fxr<. -00, -(0) = O
Função conjunta de densidade de
probabilidades
o Se a função F..,.(xJI) possui derivadas pal"iiais até segund a ordem, então
a função conjunta de densidade de ""probabilidades das variáveis
aleatórias X e Y é dada por:
82 Fx dx. y)
f X l ' (x.y ) =
8x8y
O Pela definição de derivada parcial, pode-se escrever tam bém:
,,( )_ I' P [{x< .\ <x+ ó'x .y < I ' < y + ó' y} [
f ,\l X. y - n11 " "
i~=8 u Xu y

o Ou, para diferenciais dx e dy :


fxd x . y)<lx<ly = P [{x :::; X :::; x + <Ix. Y :::; y :::; y + dy} )
o Além disso, como F..,.(xJI) é monotonicamente crescente, então:
fx dx . y) > O para todo (x . y) E ]R2

Função conjunta de densidade de


probabilidades
Conteúdo de probabilidades para um domínio D
qualquer
o Seja D uma região do plano xy formada por somas e/ou produtos de
intervalos (eventos) definidos nas variáveis x ey;
O O evento {(x, y) E D} corresponde a todas as realizações w tais que o
ponto de coordenadas x(w) ey(w) está dentro da região D, e pode ser
escrito como o limite de uma soma de eventos mutuamente exclusivos
da forma :
{X" X., x + dx,y" Y.,y + dy}
o Portanto:
P[ {(x, Y) E D} 1= f f D!\T(x,y)d,.t:()I

{
Funções marginais de probabilidade
o A partir da integral a nterionnente apresentada, as funções marginais
de distribuição cumulativa de probabilidades podem ser escritas
como:
Fx (x) = Fx,.(x , ~=
+
I: IX
fx,.(u, v)dudv

F,·(y ) = Fx ,.{ . y) = I~ I~ 1'.", (u. v)dudv


O Efetuando as respectivas derivadas parciais, obtemos as relações
entre as densidades de probabilidades conjunta e marginais:

fx (x) - I~ fx,.( x. y)dy


f>' (y ) - I+~ l x,.(x. y)dx

Funções condicionais de probabilidade


o Seja a condição {X=x} tal quefxfx)10. A distribuição condicional de Y,
dado que {X=x}, é dada pelo limite:
FI' (y l X : x ): lim Fr (y l x " X " x + IIx )
6..\'--+0

. F\'J' (x +Lk Y)-F:n' (x.y)


: llln --"-'-::---;-_...:....~-='''-;-'-,--::...!.
II.HO

....
r d x+ ~\' ) - Fr( x)

PI41BI = PIAn BI
. PIBI
P[ 41B] = PIA n B]
. P[BI

P[B] VoltUlle defmido pela
'f----......:-.:.--J densidade conjunta. no
intervalo [x, x +Jx].

"
"
04

02

P [AIB] = PIA n B ]
• P IBI

P[A n B] Volwne defInido pela


densidade conjunta. na
intersecção dos intervalos
[x, x+L1x] e (-"",v].

OI
P IAIB) = P IA n B )
• P IB )

P[A n B]

"
"
04

02

o ,
" l

l y
X H
F\T (x+~r, J')

P l c! IB ) = P IA n B )
• , P IB)

P[A n B] P[B]

,
X
" " ,
X
" ..
x + /';X x +llx
x x
Funções condicionais de probabilidade
o Seja a condição {X=x} tal que fx(x)t-O. A distribuição condicional de Y,
dado que {X=x}, é dada pelo limite:

F,- (yIX - x) = lim F" (ylx


6 ,%- 0
~ X ~ x + ~x)
. F.n ·(x + ~ "' . y} - F.H (", . y) .. PIcl lB) = PIA n B )
I.1111 1'\'
".-0 Fx (x + ~x) - F.\",") ,. . PIB)

d F x(z)
d.

o Portanto :
. f~", fx ,.(x. v)dv J~", fx,.( x . v)dv
F,- (yl·\ = x) = = ='+=00"--'-'--'--
fx (x) L fx ,.(x.y)dy

Funções condicionais de probabilidade


o Reescrevendo: 1" l o '(x, v)dv 1" fx,.( x . v)dv
h (ylX = x) = -00 • = ~~oo
=
ooC'-'-
· ---'--'--
I x (x ) L f.y,.( x . y )dy I
......................................
Obselvacôes: :
ti g(y) I tlg(y) :
: g(x,'v); J~' /
I'

.\ Y
(x, v)dv ~
---~--- .
<!I' [(xl [(xl <!I' i
Além disso. a delivada em / (x) ;
relação a y da integral em ;
i r= l U' (x.y)dr
relação a y de lU1l3 ftulção i
de ," é a pr6p.ia flUlÇ~ O .
..... -................... --........ _.-
i
Derivando e m relaçã o a Y, obtém'se:
/t- (yIX = x) = lu (x . y) = +.!x ,.(x. y)
fx (x ) Loo f .n ·(x . y)dy
Funções condicionais de probabilidade
o Analogamente, para a condição {Y=y}:

fx (x l}- = y ) = fx ,.{x. y ) = +!" n (x . y )


f>- (y ) L fXl" ~. y )dx

o Estas expressões são semelha ntes à expressão para probabilidades


condicionais estudada anteriormente:

PI 41B) = PIA n B)
- PIB)

Teorema da probabilidade total (versão contínua)


o Combina ndo duas das equações obtidas anteriormente:

f ,.{y ) = 1
-00 +00
fx ,.{x. y )dx
J f>- (y ) = 100 +00
h (y lX = x ) fx (x )dx
fx ,.(x. y ) = "'''(yl.\'"
L,}
= x )lx (x) ..
(Teorema da probabilIdade TOral)
.--------,-------.--. __ .- .... ---.---.--.-- .. ---_ .. ------.----.-----_.-._--------.-. __ .. --------._.- ... --.-,

P[B] = P[B IA .J·P[A.J+ B


P[BIA,]·P[A, ]+ ...
+P[BIAN]·P[A N]

._--------------------------------------------------------------------------------------------------------- -,

Portanto, para elimina r a condição {X=x}, bas ta multiplica r pela


fun ção f x(x) e integra r em x. Ou seja, para obter a densidade marginal!
Teorema da probabilidade total
(versão contínua)
Teorema da probabilidade total (versão contínua)
o Combinando outras duas equações obtidas anteriormente, obtém-se
ultla versão continua para o Teore ma d e Bayes:

fr<x lr =y)= .;r........., (:~,r,-!


t.;}~.
, .),---

L 1 ",(" ·)')'"
ir(")
:. I \T(X'Y) = jj.(y) fr {X r = y) - - - - - ,
. \._ )_ ! W( X..I·)
j",(
.
I, \ · - :r -
f: I \i' (x.y)dy
h'{')
:. !w (x.y)= /\-(X)/ y ( v x =x )- - - - j

[y(v l X =x) =Jr(x IY =y)jj, c")


fi· (.')
Teorema da probabilidade total (versão contínua)

o Comparando com o exemplo relacionado à qualidade do concreto


(discreto):

Probabilidade de passar no leste. Probabilidade (aprlorl)


Probabilidade ,k q lli: o
dado \un ( OI1CI\."1O bom de o com;reto ser bom :
concrelOseja bom. dado qlle
pasSQuuolesre: p(G IT) ~
P(T G) P(G)
P(T 'G)P(G) +P(T G)p(G)
Probabi bdttde d~ pasur no leste
Teorema da probabilidade total (versão contínua)
Para dutos sujeitos à cor rosão submetidos a inspeções imperfeitas
(problema contínuo) :
Probabilidade de detectar PDF (a priori) do tamanho
PDF do tamanho do defeito (a
posterior;). dada detecção: defeito de tamauho a do defeito:
POD(a) la(a)
l a (a I Detecção)

o
...
POD
-
Probabilidftde de defecção p/
qualquer ~ de a
~u

Õ
~" r (
J}' y
1\' - ) _ /dx ly ; y)fy (y)
~ - x -
O u
~
Irlx)
. ..
• , .s
~
~ Uma Inspeção resultando em
~ u detecçã o tende a "diminuir" a
~

~ u
- g~.O'l.
--_........... ,,...,.
T,."j4.0

................. ,,...,.
probabilidades de defeitos pequenos
e "aumeutar" probabilidades de
"
" , ] • S I 1 • w defeitos maiores.
TamaMo do defeito

Variáveis aleatórias independentes


Dua s variávei aleatót;a X e r sào ditas independente se os eventos (X S x) e
{r s yl sào independentes para qualquer (x, y) E 91', de maneira que:
P[{ Xs x, Ysy}] =P[{Xsx} ]P[{ Ysy}]
O Como consequência, tem-se que:

F.n(x.y) - Fx(x) F,-(y)


Ix,-{x.y) - fx (x) / ,-{Y)
h(yl X - x) = h(Y)
Ix (xlJ" - y) = Ix(x) ~
Covariância
o Trata-se de uma me dida linear da relação entre duas variáveis
aleatórias definidas no mesmo espa ço d e p ro ba bilida des. dada por:
Cov[S , l '] = E [( S - I'x )(J' - 1'" l]
o Desenvolvendo a defini ção:
CovlX ,l'J - E I(X -,I , )( l ' - ,I,)J

- J~~~ l:~(:r-I' \ HY - 'I, lf_VI (x , y )drdy

- [ "'""OC L : try -lIJl X-XP l + JI .\ I'l )J ,\) Il'. y ld.rdy

=
[ + oc i: .ry!n- ll',y ldxdY - IJ.}JJy - P ,\ J'l' -1-1'(1I1

E I,\TI - I' \ ",


o A covariâncla de uma v.a. com ela mesma correspo nd e à sua própria
variânria: b}
Cov IS , SI = E [( S - /1\ )'J = \'or[S J

Covariâm:ia
o Uma medid a adimensional da covariância entre duas v,a ,s é dada pelo
coe fici ente de correlação. que resulta sempre entre - 1 e 1:
cov[x,rJ
p ,\'Y
O'"xO'"y

O O valor p,rr=l implica correlação positiva e perfeita;


o O valor p,rr=-l implica correlação negativa e perfeita;

o A seguir são ilustradas diferentes possibilidades de covariâ ncia entre


v.a.s;
o Obse rva-se que covariância nula não implica independê ncia, lima vez
que a covariâ ncia é uma medida de d e p e ndê ncia linear ;

Haver covariânda também não implica em haver efeito causal entre as


variáveis!
• •

...

•• •
••••
~
' .. •

í
, ••
..-

I
Covariância
O<p<- I O< p< 1 "... 1
• ~ • •

./ '
.. ,
H' ~fjf/·:'
<.
-
••
••• .'.

• .,. :
-P: "
.....;. ~ "t' .
• I .
4' - • . .


..-
·J·';;·I·~::"
. ..",.f'"
. ".,....
', .

, f
"...

y.~: ;~
...." ..-<. .

• -"",.~' ~"
.,,..-. .

- .~,..<'.~
. ..... ....
','.
:!:,4 I .
; ...:~ •
, . ,..
".1
"\-;;'.,
. .'
;. )
.,.~"
p
'Ir
o', ':' . ' • < •.... 4~
• • •
O<p< 1 O<p<1 0 <p<. 1
• • •

..
L.:i~ __ • L..::_ _ _ _ _ _ •

Covariância
Complementary example.
From: Chen, C. L. Lecture nOles base<! on Allg& Tang (2007). National TAIWAN University, 2013.

Covariance and Correlation


Ex: A Cantilever Beam

li> Shear force: Q = ,+ 2; bending moment: !li = a , + 20 2

I1-Q - + 11-2
11-, ,,2
Q
+ ,,22
- ,,2,

"M - 0 ("l + 4,,~)


2 2
J."AI - al1, + 2al12

Covariância
Covariance and Correlation
Ex: A Cantilever Beam
C(QM( = C I(S, + o5, )(a , + 2ao5,)J
= aC( , + 3a fI ' 1 +2aC( 2

= a(u~ + I'~) + 3a (I" )(I" ) + 2a (u~ + I~)
a(u~ + 2u~) + a (l' ~ + 2/~ + 31' ,1'2)
...: a(a'f + 2a~) + IJqPM
Cov(Q . M ) - CIQM I "01'" - a(u; + u~)
Cov(Q . M )
=

3
.. Ir '" = U2 =? POli = Jiõ = O'f;;!
.. Q. M : srrong (linear) correlation ar the support
Q, M : NO causal relation
Problemas envolvendo muitas variáveis
aleatórias
o Em problemas de engenharia é comum as variáveis aleatórias
aparecerem em grupos;
o O principal objetivo da análise de confiabilidade estrutural é.
portanto. a determinação de estatísticas em problemas
envolvendo muitas variáveis a leatórias;
o Um conj unto de variáveis aleatórias pode ser {X" X,.... XJ
representado por um vetor X. o vetor de variáveis aleatórias ;
o Uma realização deste veto r corresponde a uma reali2~do de cada
lima das variáveis aleatórias que o compõem. e é representada pelo
evento {X=x}.

Cópulas
Re.liability an alysis of nctwor ks interconnected with copulas

J. Behrt':nsdortl .l\l. Bro~i l. M. 8et'r l.l.l


• Instilulc: for Ri§k and RcliJability, Lcibnil. UnivL'I'Sitit II~. HanI'l(WL'f. Gcrmany,
{bdv~nsdorf.bnJai.bcl..T} @i..-.t..uni-bnno\\.T.dc
1 Institulc for Risk and Uoccrtainty. Uni\crNl)' ofUvcrpool. 1..k'CfJlOOl. UK
) Inlcm:uion:d JoiOI Rcscllrch Ccnlcr for Enginmina Relíabilil)' and SlOCllastic Mcchanics (ERSM). Ton&ji Univenil)'. Sbnghõli.
C1>,~

Key"ords. oc1works. reli abl lity. slmuladon, imcrdcpcndcocks. copulms

Abstrnct. ErfK!ienl rehabi lily Ilmllysls of complex nelw«k remains a challenging part ()f nsk nnal)'sis. even more $O as
lhe connectivilY bclwfXn criticai infrnSIruc1Urcs increases. Thi papcr cxpands a previousl)' de\'cklpcd mcthod bascd 0fI
5u",h~J.1 signal urt. Whcn: in lhe pmioos work: interdc:pcndeocies ,,'ete Olodelled in a dclenninistic way. multivariale
copub.s are introduced in order 10 replicate conlp!ex dependence struclures. Df lhe difTerenl wa)'s 10 construct high
dime nsional copulas im'cstig'lIcd fM dunng Ihis work. ,tine copula... !\ave pro,en 10 pos.<;C.~" lhe n\OS( nexibili'y while slill
allowing 10 mode! depcndcncics intu ilivcly, Artcr introducing the n:quircd theory 00 copulas and the simulation melhod
weshow how 10 modelcOOlmon cau~ orrai lure and inlerdcpendcncics betwccn nelworks using D· Vjnes an<! appl)' lhem
10 a simple example. t}
Cópulas

(a) Gaossian (b) C1ayton

(c) Gumbd (ti) Fr.mk


Figure I: Samples dr.swn rrom differcnt bhOiriate copulas where lhe par.iflltlers have beco chosen SO Ihat Kendall's lau
equllls 0.5.

,. . .. .
~

I •

\. .... ~.f.' I •
i '
• •



• •

Funções de uma variável aleatória


(Propagação de Incertezas)
Funções de uma variável aleatória
o Em proble mas e nvolvendo vanave is aleatórias, é comum
e ncontra rmos relações fu ncionais e nvolvendo estas variáveis;
o A de pe ndê ncia funcio nal e ntre uma va riável aleatória Y e Ull'la
variável aleató ria "independente" X é representada por Y=g(X) .
Exemplo: Se o carregame nto axial aplicado e m lima barra é uma
variáve l aleatória, e ntão, a tensão axial resultante numa seção
qualquer da barra ta mbém é uma variável aleatória :
P

~ a( P(IlI )) = P(IlI)
A

P'

Funções de uma variável aleatória


o Exempl o : Casos mais complexos, envolve ndo modelos em ele mentos
finitos, por exemplo, pode m ser vistos da mesma mane ira:
x
I!!!!!!!!!!!!!!!!!!!

,.-
1."""
U~

1."'1d
",.,
\,I<llol

"'W.I
ttt6~1

~""' ~

a".•,,, = f( .\' )
t;).
Conceito de função de uma variável aleatória
o Seja uma variável aleatória real X(w). A cada ponto amostrai w é
atribuído um nú mero rea l x. O do mínio da v.a. X é o espaço amostrai n
e sua imagem é um conjunto Ix de números reais;
O Seja uma função real g(x), defi nida pelo menos para cada x e Ix. A
fun ~o Y=g(X) é defi nida para cada realização w, ou seja:
Y(w)'!óg(X(w )) ;
O Logo, o domínio de g(X) é o espaço amostrai n e a imagem é outro
conjunto de números reais, Iy.

X(IlI) g(x)
IR
~
XE
---...
1lI, en y e lR

'-......... g(X(IlI» .---/

Determinação da função de distribuição de Y=g(X)


Y = g(X) é uma variável aleatória!

o Seja Ir o conjunto dos níllneros reais x tais que t\.(x)sy:


x e 11, se e somente se g(x ) < y
O Logo, o evento (Ysy) é igual ao evento {x e Ir}, e:
Fdy) = P [{Y < y} ] = P [{ X E Id ]
importante

o Então, para determinar Fy(y) para um valor y dado, deve-se encontrar


o conjunto Ir e a probabilidade associada ao evento (x e Ir).
Exe mplo 1: Ir = X ' for :r ~ O => x = Jfi
when y - 1, x - I, py{l) - Px{l) - 0.25
Y - 4, x - 2, p y (4) - px(2) - 0.50
Y - 9, :r - 3, py(9) - px(3) - 0.25
I:.? y - 5, :r - ../5, py(5) - Px(../5) - O
p;(.~ y

0.50

0.25 0.25
2
0.25
0~--!---1;2--l3f-- x Py!YI - - --II"'--+------Ji--;!;-- X
O 2 3

o conteúdo de probnb;lidades de cada X i é "trol1s! erido" para o resp ectivo .1";!


Nota-se que afimção de dens idade de r pode ser bastanTe difereHle da de Xl
Pode haver aClÍlllulos/redistribuições de probabilidades!

o Exe mplo 2 (Ex 22 da a postila)-

Seja Y = Q_Y + b. a > O. Neste caso. temos que ax + b ~ Y paro x ::; lI~b. portanto
1,. é o conjunto 1,. = (- . • :;b ). Logo:

F,.{y) = PI{I ' ~ y)J = PI{.\' ~ Y: b}1 = Fs (Y: b)


ou: I:.?
F,- (y) =Fs (Y:b)
o Exemplo 3 (Chen.20131:
Considere lima viga em balanço. de conlprimento L, subllletida a Ullla
carga concentrada F, aplicada em sua extremidade livre.

Assumindo que: lF
A carga F está relacionada a um
conjunto de caixas iguais, cada
__ -.--------1
uma com peso unitário;
O nÍlmero x de caixas que
descarregam na viga varia de O a /l,
e apresenta distribuição binomial.
A probabilidade de cada caixa
estar presente é p.
Detennine a função de densidadt de probabilidades do momento !letor
que atua no engaste.

o carregamento tem função de densidade binomial I"


(x é o nÍlme ro de caixas que descarregam na viga): •

11 ) x /I_X
PF(X) = ( X P (I - p) : X= O,I, ... , 11

Para uma ca rga de x caixas, o momento netor m no engaste resulta:


/11
=> x = g -I ( 111 ) =-
L
Portanto, a distribuição de probabilidades do momento !leto r é:

PM(/II) = PF [ X= g - I (/11)]= p(F = 7)


=( /li / L ) pIII IL(I _ p)"-IIIIL
11
Função monotonicamente crescente ou
decrescente
o Se Y=g(X) é uma fun ção monotonicamente crescente ou decrescente,
o conjunto Ir é simplesmente conexo; nota-se que as probabilidades a
segui r são iguais:
fx (x) d:r - P [{ x ~ X ~ x + dx } j
f>- (y )dy - P [{y ~ l ' ~ y + dy} j
yl't..) C01l1eúdo
"col/cemrado" de _--,
probabilidades.
I------~-..-_ 0<
~t a l. "Redistribuil1do " O
comeúdo ao 101lgo de ti)'. ~
I r,, (x)~ i h(x)
f y(Y) =/d x ),;" I g'(x)
~

~' =g'(x)
m'
o No caso acima ilustrado,g (X) é monotonicamente crescente,

Função monotonicamente crescente ou


decrescente
o Se g (X) é monotonicamente decrescente, a derivada resulta negativa,
mas não pode have r conteúdo de probabilidades nega tivo, então:
dv fdx)
fy(,")= - /t. (x) -d =
g'(x)
"
o Agrupa ndo os dois casos, te m-se que :
dv fy( x )
fy( v) =/v(x) .J.,
'" Ig'(x) I
Generalização para número finito de raízes
o o resultado anterior pode ser generalizado para funções não
monotônicas com número finito de raízes. sendo necessário resolver
a equação para Y=g(X) para X;
O Sejam Xl ' X2• .... X, raízes reais tais quey=g(xI J=g(X2J= ... =g(x, J. tem-se:

f ' ( ) = Jx (x , ) + fS (X2) + + Jx (x n )
I y Ig'(x , )1 Ig' (X2 )1 ... 19' (x .. )1
o Onde:
g'(x) = dg(x)
d, 1 /

".-- '/. .
o Exemplo: No caso do pórtico anteriormente ilustrado. a resposta
(tensão em função do carregamento) pode ser não monotônica ao se
considerar. por exemplo. a possibilidade de escoamento do material.

'--
......
~~C--MIR4~

f_ I

---
U-""2t IF lt li

).51; 1101
3. 111101
l,tIls• •
Ul"d
L11)"1
UlIhl
'.'-'01
,Uxl
4,90lkS MIn

..... ... ""


'.'"
i l,t-I

U·'

m" ...... t ...

'N'
Exemplo
Exe mp lo 23 5f)a 1" = aX + b. a > O. Re$olvendo paro x temos x =~. Com g'(z) = a obtém·.se:
t:;. , (y - b)
Idy) ~ ã/.' - . -

Compare este rtsfJltado com o resultado do ezemplo (122). e lIote que podcno ser obtido diretamente
dfT'u:alldo em ",/orão a y.

(Va-h)
Derivada defimção composta:
dF y -'-
Se!' = I(g(x )), tem-se que:
dFy(y) _ '
dI' 'Õ' = /,(g(x )) , g'(x )
d,

Exemplo 2'1 Seja l ' - aS 2 , a > O. As ro(:es são: Xl - e X:z - +J!" A" dcncadas -I!". $(10:
9'(ZI) = 2a.tt = 2Jãü e 9'(%2) = 2cu:z = -2Jãü. Paro 11 < O não hd 50111(60. logo Idu) = O paro li < O.
Portanto. a solurao resulta:

2JãY [Ix (+Vã)


-' !fi +Ix ( - V!fi
0.) 1 paro y ~O
= O paro 11 < O

Exemplo
Exemplo 25 Transformação de Hasofer e Lind: Seja X uma v.a. com dlstribulçao
"ormal e 1'<lIümetros X ~ 1\"(I"U) e distribuirao dada pela equaçao ( •. 36).
Para a fUllçáo 1- = g( X ) = x ; ". queremos detenllillQr a distribuiçáo h(Y).

Resolvendo pam x obtemos x = uy + 11 e:


x = ay + p
g'(x) = dy = .!.U
dx
!,(x)= -
1
a~
1 x-Ji
- exp - ,
_
(-(1-)
[ t ']
UflIioalldo as equaçóes (2.36 e 2.60). obtemos:

ft .(y) = !x(x) = _l_ lu l exp


Ig'(x) 1 j2íi U
[_.!. (Uy + i' -
2 U
1')2]
r(, . (y)
l,?
= _1_e
j2íi
xp[_y2] 2 o desvio-padrllo é sempre
pos;thlo!

Esta é uma distrlbuiçào nonnal com médIa nula e desl'lo-padrao unitdno.


Momentos de uma função de uma
variável aleatória
(Propagação de Incertezas)
Por exemplo: QlIal é a média e qllal o desvio-padrão da resposta?

L..--
F ....-----.1:
.........

Momentos de uma função de uma variável


aleatória
o Seja a função Y=g(X) , tem-se qu e:

m -I i:~ yJ,.(y)dy = i:g(x) fx (x)dx

\ -arl}"1 - E I(Y - E[J -])'1= i:(g(x) - E [J 'I)' fx (x)dx

O Muitas vezes, não conhecemosfxeX), apenas os mornentos da variável


X, mas qu eremos detenninar os momentos de g (X) . Nestes casos,
aproxilnações podeln ser obtidas;
O Co nside remos, po r exemplo, g(X) aproximad"a no pon to x=t'x. e qu e
g(X) seja aproximadamente co nstante n3 vizinhança da média I' Xi
tem-se qu e: ( +00
E [YI = E [g(X )1 '" g(l' x ) J-~ fx (x)dx = 9(l'x)

A média dafimçào é aprox;madalllellle igual à/unçào


avaliada na média.
(Aproximação de ordem =ero.)
Aproximações para os momentos
o Aproximações de ordem mais alta podem ser obtidas a pa rti r de uma
expansão em série de Taylor da função, em tomo do ponto médio;
O A série de Taylor associada a uma função f com determinadas
propriedades é dada por:
"- J"(a)
J( x) = L (x -a)"
1/=0 11!

Nem sempre a série cOllverge para o valor exato da full ção!

O Para o caso em questão, considerando a expansão em tomo do ponto


médio. tem-se:
, g" (I",.) (X - l"d 2
g(X ) "" g(l"x ) + 9 (llx )( X - I"x ) + - 2 . + ...

"' ('K. -

- \ - .(
""
" Original functioo
- O-order appro:t.
.'
,.'.'
- - Ist.orderappl'O.'(.
20 - - 2nd-orderapprox.
3rd-order apprUt. ,
,.'
,-
, .'
s
, , ,.'
,
,,
, ,,
,,
--
, ,
, ~. '"" . -- -------
s
-" "
"
,
-' . -_ .:: --- -
" ,
-,_o,.
-_ ... ... - -- -
,------
- --
- -
- ----- -- ~

•, , • • • •
3
x "
Discussões quanto ti qualidade da aproximaçào devem levar em COI1((I os
cOllfeúdos de probabilidade!
Aproximações para os momentos
o Aproximação de primeira ordem
o Mantendo apenas o term o de primeira ordem da série, tem-se:

E [Y ] '" E [g (/-,x l] + g'(/-,x l E [( X - I'x l] = g (/-,x 1 .................... --o


r---------------;"\
Obserrocào: O ,"alar esperado de (X - Px) é análogo ao
momento esrático de área em relação ao cenh·oide.1 ,

Portamo, E[(X - "xl]=O,


......
'" E !y( X )'] - E 2 !y(X l] . ,- . ... "" .. .
' "

- E ](g(i'x ) + g'(!,x)( X - i'x »2]_ 9(I'x)2 .......


- E!Y (i'x )2 + 2g(i'x )g'(I'x )(X - i'x ) + g'Cl1x )2( X - I'x )']- g(i' x )2
= E [( X - I'x )2]g' (I'x )'
= ' ·ar[.\']9'(I'x )2

- ' ·ar[.\'] ( d~~lJ

Aproximações para os momentos


o Aproximação de segunda ordem
o Mantendo ta mbém o te rmo de segunda ordem:
E [l' ] '" E !y(i'x)] + E!y'(i'x )( X - i'x )] + E [g"(i'X )(.; - I'x )2]

" ar[X ] ,, ( )
= 9 (i'x ) + 2 9 i'x
' ·ar[.\' ] d'g(X) !
- 9 (J.1x ) + 2 dx2
"x
" ar[1'] '" ' ·ar[.\'] ( dg(XJ I
dx ~;'<:
)2_ ' ·ar[.\']2
-I
(d'g(:JI )2
dx fJ. ,'t(

+ E [( \' -
. 1',\
.)'] dg (x) d'g (x)
dx dx2
I + E[( \' -
. 1',\
, )<] ( d'g(X)
d:r;2
I )2
fJ.x fJ.x

O É comum trabalhar com es timativa dct)s egunda ord e m para a


média e de primeira ordem para a variância, pois raramente os
momentos de terceira e quarta ordem da variável X são conhecidos.

Você também pode gostar