Você está na página 1de 11

UNIVERSIDAD NACIONAL AGRARIA LA MOLINA

“Segundo Trabajo Encargado- Procesos Estocásticos”


Curso: Métodos de Procesos Estocásticos

Temas:

- Propiedad de falta de memoria


- Función Hazard
- Distribución condicional de los tiempos de espera

Profesor: López de Castilla, Carlos

Integrantes:

 Arango Yamashiro, Verónica


 Chumbimuni Ricci, Roxana
 Escudero Valverde, Milagros
 Romero Velásquez, Perlita
 Ustiano Aguirre, Fernanda
 Zavaleta Portocarrero, Teófilo

2019-I
1. Probar que la distribución geométrica tiene también la propiedad de falta de
memoria vista en clase. Presente un ejemplo de aplicación.

Propiedad de falta de memoria de la Distribución Geométrica

a) Sea 𝑋~𝐺(𝑝), 0 < 𝑝 < 1.

𝑃(𝑋 ≥ 𝑠 + 𝑡|𝑋 > 𝑡) = 𝑃(𝑋 ≥ 𝑠) ∀𝑠, 𝑡 ∈ 𝑁

Esta propiedad significa que si ya se han realizado t repeticiones de la prueba de Bernoulli y no se ha


obtenido el suceso éxito (por lo tanto el experimento no ha finalizado y X  t ), la probabilidad de
que se realicen al menos otras s repeticiones sin conseguirlo (con lo cual se realizan por lo menos s +
t sin obtener éxito y X  s  t ) es igual a la probabilidad de que se realice al menos s repeticiones
sin alcanzar éxito; es decir esa probabilidad es la misma que si consideramos que el experimento
comienza en la repetición t + 1 y, por tanto, se olvidan las t repeticiones realizadas inicialmente.

Demostración:

Teniendo en cuenta la expresión de la función de distribución de la ley geométrica, se tiene

𝑥 ∈𝑁

P( X  x)  1  P( X  x)  1  FX ( x  1)  1  (1  (1  p) x )  (1  p) x , 𝑥 ∈ 𝑁

Por tanto, si 𝑠, 𝑡 ∈ 𝑁 se verifica:

P( X  s  t  X  t ) P( X  s  t )
P( X  s  t / X  t )   
P( X  t ) P( X  t )

P( X  s  t  1) (1  p)s t 1
   (1  p)s 1  P( X  s  1)  P( X  s)
P( X  t ) (1  p) t

b) Se sabe que : s, t  N , P( X  s  t / X  t )  P ( X  s ). En particular, si t=1,

P( X  s  1/ X  1)  P( X  s) s, N y ,llamando p := P(X=1),

P( X  s  1)  P( X  1) P( X  s )  (1  p) P( X  s ) s  N (2)

Del mismo modo,


P( X  s  2)  (1  p) P( X  s  1) s  N (3)

Y restando miembro a miembro (2) y (3),

P( X  s  1)  (1  p) P( X  s) s  N .

Se obtiene en forma recursiva,

P( X  2)  (1  p) p
P( X  3)  (1  p) 2 p

y, en general, P( X  n)  (1  p)n1 p n  N ,

es decir: 𝑋~𝐺(𝑝)

Ejemplo N° 1: Un jugador de baloncesto se dispone a tirar hasta anotar una canasta. Si se


supone que sus tiros son independientes con función de distribución dada por:

𝑿~𝑮(𝒑): 𝑷(𝑿 = 𝒙) = (𝟏 − 𝒑)𝒙−𝟏 𝒑, para 𝒙 = 𝟏, 𝟐, …

y la probabilidad de anotar una canasta es de 0.8. Si ya lleva fallando más de 2 tiros, ¿Cuál es
la probabilidad de que necesite tirar más de 6 tiros hasta anotar?

Sea Y = número de tiros necesarios para anotar una canasta

𝑋~𝐺(0.8)

𝑃(𝑌 > 6|𝑌 > 2) = 𝑃(𝑌 > 6 − 2) = 𝑃(𝑌 > 4) = 1 − 𝑃(𝑌 < 4)

𝑃(𝑌 < 4) = 𝑃(𝑌 ≤ 3)

3
P(Y  3)   (1  p) y 1 p  (0.20  0.8)  (0.21  0.8)  (0.22  0.8)  0.992
y 1

P(Y  6 / Y  2)  1  P(Y  3)  1  0.992  0.008

Ejemplo N° 2:

 Roberto está en una fiesta y comenzó a invitar chicas a bailar. Sea X el número de chicas que
tuvo que invitar para encontrar una pareja de baile. Si la primera chica acepta, entonces X=1.
 Si la primera declina, pero acepta la chica de al lado, entonces X=2. Y así sucesivamente.
 Cuando X=n, significa que no he logrado en los primeros (n-1) intentos y tuve éxito en el
intento n-ésimo.
 La probabilidad de fracasar en el primer intento es (1-p). De fallar es los dos primeros intentos
es (1-p) (1-p).
 La probabilidad de que falle en el primer (n-1) intento es (1-p) (1-n). Entonces, la habilidad
de Roberto de tener éxito en el n-ésimo intento es p.

2. Buscar información sobre la función Hazard aplicada a otras distribuciones de


probabilidad además de la exponencial (mínimo dos) y presente un ejemplo de
aplicación usando R.

Para entender la función de riesgos primero debemos conocer la función de supervivencia 𝑺(𝒕). La
función de supervivencia es la probabilidad de que no ocurra el evento de interés al menos hasta un
tiempo 𝒕.

Así se tiene una variable 𝑻 aleatoria no negativa con función de distribución igual a 𝑭(𝒕) y función
de densidad 𝒇(𝒕). La función de supervivencia será:

𝑺(𝒕) = 𝟏 − 𝑭(𝒕) = 𝑷[𝑻 > 𝑡]

La función de razón de riesgos o tasa instantánea de fallas 𝒉(𝒕) se define como el cociente de la
función de densidad y la función de supervivencia:

𝒇(𝒕) 𝒇(𝒕)
𝒉(𝒕) = =
𝑺(𝒕) 𝟏 − 𝑭(𝒕)
Es la probabilidad de que a un individuo le ocurra el evento de interés en la siguiente unidad de tiempo
∆𝒕, dado que ha sobrevivido hasta el tiempo 𝒕.

Esta función se deriva de la Tasa Media de Fallas, 𝑻𝑴𝑭, que se define:

𝑭(𝒕 + ∆𝒕) − 𝑭(𝒕) 𝟏


𝑻𝑴𝑭 = ∗
∆𝒕 𝑺(𝒕)

De esta expresión tomamos el límite para ∆𝒕 → 𝟎, se tiene:

𝑭′(𝒕) 𝒇(𝒕)
𝒉(𝒕) = 𝐥𝐢𝐦 𝑻𝑴𝑭 = =
∆𝒕→𝟎 𝑺(𝒕) 𝑺(𝒕)

Despejando 𝑺(𝒕)se tiene:

𝒇(𝒕)
𝑺(𝒕) =
𝒉(𝒕)

La función de riesgo acumulada se define:

𝒕
𝑯(𝒕) = ∫ 𝒉(𝒖)𝒅𝒖 = −𝒍𝒐𝒈 𝑺(𝒕)
𝟎

Despejando𝑺(𝒕), se tiene:

𝒕
𝑺(𝒕) = 𝒆− ∫𝟎 𝒉(𝒕)𝒅𝒕 = 𝒆−𝑯(𝒕)

Distribución Weibull:

El modelo Weibull es la generalización del modelo exponencial. Se dice que la variable aleatoria 𝑻se
distribuye como una distribución Weibull de parámetros ∝> 0 y 𝜆 > 0 si su función de densidad
toma la siguiente expresión:

𝜶
𝒇(𝒕; 𝝀, 𝜶) = 𝜶𝝀(𝝀𝒕)𝜶−𝟏 𝒆−(𝝀𝒕)

La función de supervivencia será:


𝜶
𝑺(𝒕; 𝝀, 𝜶) = ∫ 𝒇(𝒖)𝒅𝒖 = 𝒆−(𝝀𝒕)
𝒕

La función de riesgo será:


𝜶
𝒇(𝒕) 𝜶𝝀(𝝀𝒕)𝜶−𝟏 𝒆−(𝝀𝒕)
𝒉(𝒕; 𝝀, 𝜶) = = 𝜶 = 𝜶𝝀(𝝀𝒕)𝜶−𝟏
𝑺(𝒕) 𝒆−(𝝀𝒕)

La función de riesgo acumulada será:

𝒕
𝑯(𝒕; 𝝀, 𝜶) = ∫ 𝒉(𝒖)𝒅𝒖 = (𝝀𝒕)𝜶
𝟎

Ejemplo:

El análisis de la velocidad del viento se usa para predecir algún desastre natural. En cierta zona
se encontró que el tiempo en que se dan velocidades del viento a niveles alarmantes se distribuye
como una Weibull con parámetro 𝜶=1.8253 y 𝝀 = 𝟏/𝟖. 𝟐𝟔𝟖. Hallar el riesgo de que ocurra un
desastre natural en un tiempo igual a 5.

Usando la expresión 𝒉(𝒕; 𝝀, 𝜶) = 𝜶𝝀(𝝀𝒕)𝜶−𝟏 :


> l=1/8.268
> a=1.8253
> t=5
> a*l*(l*t)^(a-1)
[1] 0.1457683

𝒇(𝒕)
Usando la expresión 𝒉(𝒕) = 𝟏−𝑭(𝒕) :

> dweibull(t,a,l^(-1))/(1-pweibull(t,a,l^(-1)))
[1] 0.1457683
Distribución Logística:

Se dice que la variable aleatoria 𝑻 se distribuye como una distribución logística de parámetros 𝜇 y 𝜎
si sus funciones de distribución, densidad y de riesgo toman la forma:

𝒕−𝝁
𝑭(𝒕; 𝝁, 𝝈) = 𝚽𝒍𝒐𝒈 𝒊𝒔 ( )
𝝈

𝟏 𝒕−𝝁
𝒇(𝒕; 𝝁, 𝝈) = 𝜙𝒍𝒐𝒈 𝒊𝒔 ( )
𝝈 𝝈

𝟏 𝒕−𝝁
𝒉(𝒕; 𝝁, 𝝈) = 𝚽𝒍𝒐𝒈 𝒊𝒔 ( )
𝝈 𝝈
donde:

𝒆𝒛
𝚽𝒍𝒐𝒈 𝒊𝒔 (𝒛) = 𝟏+𝒆𝒛es lafunción de distribución de la distribución logística estándar.

𝒆𝒛
𝜙𝒍𝒐𝒈 𝒊𝒔 (𝒛) = (𝟏+𝒆𝒛 )𝟐es la función de densidad de la distribución logística estándar.

Ejemplo:

En un área crítica de un hospital la tasa de mortandad es alta, el tiempo en días de supervivencia


de los pacientes sigue una distribución logística con media igual a 7.25 y desviación estándar
igual a 5.56. Se desea estimar la probabilidad de riesgo de que un paciente sobreviva 10 días.

𝟏 𝒕−𝝁
Usando la expresión𝒉(𝒕; 𝝀, 𝜶) = 𝝈 𝚽𝒍𝒐𝒈 𝒊𝒔 ( 𝝈
) :

>t=10
>u=7.25
>s=5.56
>z=(t-u)/s
>exp(z)/(1+exp(z))/s
[1] 0.1117249
𝒇(𝒕)
Usando la expresión 𝒉(𝒕) = 𝟏−𝑭(𝒕) :

>dlogis(t,u,s)/(1-plogis(t,u,s))
[1] 0.1117249

3. Demostrar el resultado visto en clase con respecto a la distribución condicional


de los tiempos de espera. Presente un ejemplo de aplicación.

Previamente se repasa la distribución condicional de los tiempos de espera hecha en clase:

Dado que N(t) = n, los tiempos de espera:

𝒔𝟏 , 𝒔𝟐 , … , 𝒔𝒏

tienen la misma distribución que las estadísticas de orden correspondientes a n variables aleatorias
independientes con distribución uniforme en el intervalo (0,t), es decir:

𝒏!
𝒇(𝒔𝟏 , 𝒔𝟐 , … , 𝒔𝒏 |𝒏) =
𝒕𝒏
para 𝟎 < 𝒔𝟏 < 𝒔𝟐 < ⋯ < 𝒔𝒏 < 𝒕

Para la demostración partimos de:

La Distribución Uniforme

Considerando un segmento de longitud t y escogiendo sobre él n puntos al azar, de manera


independiente y con distribución uniforme, es decir, considerando una muestra aleatoria simple de
tamaño n de la distribución uniforme sobre [0; t]. Se llama 𝑈1 , … , 𝑈𝑛 a estas variables.

La densidad de probabilidad de cada una de ellas es

1
𝑓𝑈 (𝑢) = , 𝑝𝑎𝑟𝑎 0 ≤ 𝑢 ≤ 𝑡
𝑡

Considerando ahora esta misma muestra pero ordenada y llamándola𝑈(𝑖) , 1 ≤ 𝑖 ≤ 𝑛 , a sus valores,
de modo que

𝑈(1) ≤ 𝑈(2) ≤ ⋯ ≤ 𝑈(𝑛−1) ≤ 𝑈(𝑛)

La densidad conjunta Uniforme de 𝑈(1) , 𝑈(2) , … , 𝑈(𝑛) es

𝑛!
𝑓𝑈(1) ,…,𝑈(𝑛) (𝑢1 , … , 𝑢𝑛 ) = 𝑝𝑎𝑟𝑎 0 < 𝑢1 < ⋯ < 𝑢𝑛 ≤ 𝑡 (1)
𝑡𝑛

Como se verá a continuación. Dada cualquier colección 𝑋1 , … , 𝑋𝑛 de v.a.i.i.d. las variables


𝑋(1) , … , 𝑋(𝑛) , que corresponden a los valores de las variables originales pero ordenadas

𝑋(1) ≤ 𝑋(2) ≤ ⋯ ≤ 𝑋(𝑛) ,

Se conocen como los estadísticos de orden. El próximo teorema nos dice cómo se obtiene su
distribución en el caso general.

Teorema

Sean 𝑋(1) ≤ 𝑋(2) ≤ ⋯ ≤ 𝑋(𝑛) los estadísticos de orden para una muestra aleatoria simple de
variables aleatorias continuas con densidad f(x). La densidad conjunta de los estadísticos de orden
es:

𝑛
𝑛! ∏ 𝑓(𝑥(𝑖) ), 𝑥(1) , 𝑥(2) , … , 𝑥(𝑛) ,
𝑔𝑛 (𝑥(1) , 𝑥(2) , … , 𝑥(𝑛) ) = { 𝑖=1 } (2)
0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜.
Demostración:

Se hará la prueba para el caso general n y la ilustraremos detalladamente cuando n = 2. Se Definen


los conjuntos:

𝑨 = {(𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 ) ∶ 𝒙𝒊 ∈ ℝ, 𝒙𝒊 ≠ 𝒙𝒋 𝒑𝒂𝒓𝒂 𝒊 ≠ 𝒋} y

𝑩 = {(𝒙(𝟏) , 𝒙(𝟐) , … , 𝒙(𝒏) ) ∶ −∞ < 𝒙(𝟏) < 𝒙(𝟐) < ⋯ < 𝒙(𝒏) }

La transformación que define los estadísticos de orden es una función de A a B pero no es 1-1, ya que
cualquiera de las n! permutaciones de los valores observados produce los
mismos estadísticos de orden. Por ejemplo, cuando n = 2, si (𝑥1 , 𝑥2 ) = (1.3,3.4) 𝑦 (𝑥1 , 𝑥2 ) =
(3.4,3.1) 𝑎𝑚𝑏𝑜𝑠 𝑝𝑟𝑜𝑑𝑢𝑐𝑒𝑛 (𝑥(1) , 𝑥(2) ) = (1.3,3.4)

Si se divide A en n! subconjuntos de modo que cada uno corresponda a un orden particular de la


muestra observada, vemos que ahora la transformación que define los estadísticos de orden define
una biyección de cada uno de estos conjuntos al conjunto B. Como ilustración, cuando n = 2,
dividimos A en 𝐴1 = {(𝑥1 , 𝑥2 ) ∶ −∞ < 𝑥1 < 𝑥2 < ∞} 𝑦 𝐴2 = {(𝑥1 , 𝑥2 ) ∶ −∞ < 𝑥2 < 𝑥1 <
∞}. En el primero de estos conjuntos la transformación es 𝑥1 = 𝑥(1) 𝑦 𝑥2 = 𝑥(2) . Por lo tanto, el
valor absoluto del Jacobiano de la transformación es:

|𝐽1 | = |1 0
|=1
0 1

Mientras que en 𝐴2 la transformación es 𝑥1 = 𝑥(2) y 𝑥2 = 𝑥(1) y el valor absoluto del Jacobiano


de la transformación es:

0 1
|𝐽2 | = | |=1
1 0

En el caso general se ve similarmente que el Jacobiano de cada una de las biyecciones de una de las
n! regiones en que dividimos A sobre B, tiene valor absoluto igual a 1. La densidad conjunta de los
estadísticos de orden es, en consecuencia, la suma de las contribuciones de cada conjunto de la
partición.
En el caso particular n = 2 tenemos para −∞ < 𝑥1 < 𝑥2 < ∞,

𝑔(𝑥(1) , 𝑥(2) ) = 𝑓(𝑥(1) )𝑓(𝑥(2) )|𝐽1 | + 𝑓(𝑥(2) )𝑓(𝑥(1) )|𝐽2 |

= 2𝑓(𝑥(1) )𝑓(𝑥(2) )
Para n cualquiera, la densidad conjunta (2) se obtiene tomando en cuenta que la contribución de cada
una de las n! particiones es ∏𝑛𝑖=1 𝑓(𝑥(𝑖) ).

En el caso particular de la distribución uniforme obtenemos la ecuación (1) para la densidad de los
estadísticos de orden.

Teorema:

Sean 𝜏1 , 𝜏2 , … los instantes en los cuales ocurren los sucesivos eventos de un proceso de Poisson de
parámetro 𝜆. Dado que N(t) = n, las variables 𝜏1 , 𝜏2 , … tienen la misma distribución conjunta que
los estadísticos de orden de n v.a.i. con distribución uniforme en [0; t].

Demostración:

Se considera un proceso de Poisson {𝑁(𝑡), 𝑡 ≥ 0} y se supone que en el intervalo [0; t] han ocurrido
n eventos. Sea [𝑡𝑖 , 𝑡𝑖 + ℎ𝑖 ], 1 ≤ 𝑖 ≤ 𝑛, una sucesión de intervalos disjuntos en [0; t].
Dado que han ocurrido n eventos hasta t, la probabilidad de que ocurra exactamente un evento en
cada uno de los intervalos que listamos y ningún evento fuera de ellos es:

𝑃(𝑡1 ≤ 𝜏1 ≤ 𝑡1 + ℎ1 , … , 𝑡𝑛 ≤ 𝜏𝑛 ≤ 𝑡𝑛 + ℎ𝑛 |𝑁(𝑡) = 𝑛)

𝜆ℎ1 𝑒 −𝜆ℎ1 … 𝜆ℎ𝑛 𝑒 −𝜆ℎ𝑛 𝑒 −𝜆(𝑡−ℎ1 −⋯−ℎ𝑛 )


=
𝑒 −𝜆𝑡 (𝜆𝑡)𝑛 ⁄𝑛!

𝑛!
= 𝑡 𝑛 ℎ1 … ℎ𝑛 (3)

Pero, por definición de la función de densidad, el lado izquierdo de (3) es, para valores pequeños de
ℎ𝑖 , 1 ≤ 𝑖 ≤ 𝑛, aproximadamente igual a

𝑓𝜏1 ,…,𝜏𝑛|𝑁(𝑡)=𝑛 (𝑡1 , … , 𝑡𝑛 )ℎ1 … ℎ𝑛

Esto es suficiente para demostrar que la densidad condicional de los tiempos 𝜏𝑖 dado que han ocurrido
n eventos en el intervalo [0; t] es igual a 𝑛!⁄𝑡 𝑛 .

Ejemplo: Los clientes se presentan en la sección de atención de quejas por productos defectuosos de
una casa de electrodomésticos a razón de dos clientes por hora. ¿Cuál es la probabilidad de que se
presenten cuatro clientes durante la próxima hora?
Solución: en este caso lambda=2 clientes por hora, T=1 hora y n=4 clientes. La probabilidad de que
lleguen cuatro clientes en la próxima hora es:

 2(1)
4
16 2
P(4)  e2(1)  e  0, 090
4! 24

Otra forma de especificar la distribución de llegadas consiste en hacerlo en términos de tiempos entre
llegadas de clientes, es decir, el intervalo de tiempo entre la llegada de dos clientes sucesivos. Si la
población de clientes genera a estos de acuerdo con una distribución de poisson, entonces la
distribución exponencial describe la probabilidad de que el próximo cliente llegue durante los
siguientes T periodos de tiempo.

Você também pode gostar